《神经技术伦理问题建议书》定在11月12日生效

中新网在巴黎的消息源刚传来,教科文组织那边把它在11月5日刚通过的首个全球神经技术伦理框架正式公布了。为了适应这个新规,《神经技术伦理问题建议书》定在了11月12日正式生效。这一纸文件不仅把阿祖莱总干事在2019年启动的相关流程画上了句号,还跟教科文组织自2018年开始搞的人工智能伦理工作接上了茬。阿祖莱觉得,神经技术说不定能变成人类进步的大热门,但背后肯定藏着不少坑。为了给科技进步定个道儿,教科文组织这回就是专门拿出这套规范性的文件来划清界限的。这套文件里写得明白,科技想要变得真有价值,必须得是把伦理、尊严和对后人的责任摆在首位才行。 虽说大家伙儿对神经技术的关注肯定不如对人工智能那么火热,可这玩意发展的速度简直太惊人了。教科文组织的那份报告数据挺扎眼,从2014年到2021年,光投在神经技术相关公司的钱就猛涨了700%。简单说,神经技术指的就是能直接去跟神经系统打交道的那些工具,像用来测量、调控或者是刺激的都算。这技术在治病救人这块儿前途无量,脑深部刺激能帮抑郁症和帕金森病人缓解症状;脑机接口更是让残障人士能用意念来控制假肢或者跟人说话交流。 虽说现在医疗上用这些技术管得挺严,可一到别的地界儿就完全没个谱了。不少人在不知情的情况下也会碰到神经技术,比方说戴个智能头带或者耳机这种日常设备。这些设备虽然能监测心率、压力和睡眠状况,但它们采集到的那些高敏感数据可都是人的思想、情绪和反应的活样本啊!要是没经过人家同意就给共享出去了,后果真是不堪设想。 新出台的这个标准性文件就是想让各国政府把神经技术搞得更包容、更便宜一点。《建议书》里还特别点出了其他风险,特别是对于那些大脑还没长全的儿童和青少年来说更是如此。为了孩子好,建议还是得把这部分群体的神经技术应用死死限制在治病这个层面上。 与此同时,文件也敲了个警钟给职场方面听听:那种用神经技术去盯着员工干活效率或者直接建立员工档案的行为绝对不行!这时候必须得拿到明确同意书还得保证信息透明才行。