行业报告 AI展会 数据标注 标注供求
数据标注数据集
主页 > 机器人 > 正文

脑机交互,究竟是人类的福音还是潘多拉的魔盒

 

之前,我们发布了马斯克找到了实现脑机接口的方法,只是一个想法就可以操纵自己的手机?!一文,本该在科幻小说中出现的情节有可能再次变为现实。Elon Musk的Neuralink公司宣称自己将在脑机交互技术上取得更多的突破,一时间引起轩然大波,各方褒贬不一。“能力越大,责任越大”,脑机交互将给我们带来一个增进福祉的未来,还是反乌托邦的噩梦?我们有必要开始一场更广泛、更深入、更有见地的讨论,以确保技术得到有效控制并引导其向好的一面发展。

想象一下,你可以走进一间手术室,然后在你的大脑中植入数千个显微镜般精细的电极,所有电极的植入速度和效率都跟你做LASIK眼科手术时一样快,这一手术的目的是通过一个简单的手机应用来提升你大脑的潜能。

 

直到本周,这还是科幻小说里的情节。然而,在上周二的一次发布会上,Elon Musk创建的Neuralink公司宣称,他们正在实现这一目标的轨道上大步前进,并在未来几年实现更多目标。

 

Neuralink的脑机交互技术令人印象深刻。Neuralink公司仍然采取了Musk轻车熟路的老办法——将不同领域的新人才聚集在一起的模式来加快技术创新的速度,该公司目前已经在可实现的脑机交互目标上实现了跨越性进展。但是,尽管无线读写脑机交互的技术前景广阔,但是像Neuralink这样的公司却面临着这样的危险:它们过于专注于自己能做什么,以至于忽略了自己能做什么背后的道德规范。

 

神经技术的伦理问题

在我2018年出版的《Films from the Future》一书中,我描述了我们当时所知道的马斯克创造的神经织网(neural lace),这个术语来自Iain M. Banks的科幻小说,描述了未来的脑机交互。但现在我们距离畅想的未来更近了,我对神经连接的潜在风险和伦理问题有了更多的思考。尽管我们仍然在探索我们的整个身体在影响我们是谁方面有多么重要这样的问题,但我们一直认为大脑是最终定义我们的器官。这是我们自我意识和身份的根源之所在,是我们接收和处理数据之所在,是我们的智力和理性之所在,是我们最深的情感和抱负之所在。

 

这就是为什么道德规范在负责任的神经技术发展中如此重要的部分原因。这些技术同时也带来了社会风险,进一步使问题复杂化。当一项新技术有可能改变集体行为、破坏社会规范或破坏既定价值观时,围绕“可以”和“应该”之间的界限就会产生更广泛的伦理问题。

 

直到上周,这些问题大多还是理论性的。基本的神经技术已经出现了一段时间了,包括人工耳蜗植入、深度脑刺激和更复杂的脑机交互等技术。它们还算是比较基本的技术,为技术发展和使用道德双方提供了对话的空间。

 

但是,随着Neuralink的发布活动和与之相关的关于他们潜在技术应用的文献逐渐增加,进一步探讨此类伦理问题呈现出新的紧迫性。

 

挑战可能的极限

神经连接技术的进步之所以具有潜在的破坏性,主要是因为其可行性。因为该公司正在研发的技术似乎是建立在坚实的科学和工程学基础之上的。虽然目前最先进的技术允许有限数量的原始电极被硬连接到大脑的关键部位,但Neuralink正在开发的方案是集成方案,其中成千上万的超细、灵活的读写电极可以精确地植入大脑。这些设备采用尖端精密机器人,最终将通过手机应用进行无线控制,以对抗神经系统疾病。

 

然而,这只是对未来趋势的一个尝试。使用它们开发的平台,Neuralink的长期目标是通过添加第三方人工处理层来增强我们大脑的功能,就像一个简单的手术,可能只需要几个小时。根据目前的进展,实现这一目标完全在可行的范围内。

 

然而,正如已故的Stan Lee所指出的那样,“能力越大,责任越大”。这就是Neuralink和该领域其他公司需要批判性思考的地方,即如何负责任地和合乎道德地创新。

 

伦理挑战

像往常一样,一旦话题涉及到脑机交互等先进技术的伦理问题,分析就有没法继续的危险。

 

我们甚至可以推测出先进的脑机交互技术可能给使用者带来的潜在心理伤害,或者被大脑黑客劫持的危险。我们很容易联想到反乌托邦式的未来——社会行为被机器控制,因为我们为了神经网络的便利而牺牲了自主性。

 

然而,当试图在强大的技术能力与其伦理和社会责任发展之间进行权衡时,这种类型的推测很少有什么用处。相反,尽管存在将虚构潜在风险甚至编造出子虚乌有的谣言的诱惑,但我们迫切需要明智地思考可能出现的问题,以及如何应对这些问题。就神经连接技术而言,这意味着要努力解决道德和负责任创新领域面临的三个具体问题。

 

生理影响

首先,在大脑中植入成千上万个电极可能会对人体产生急性和慢性的生理影响。确保这项技术的安全性绝非易事。然而,我有理由相信,监管机构、研究人员和开发人员将能够识别并驾驭关键挑战。

 

由于多年来一直致力于研究包括纳米颗粒在内的新型材料的潜在健康风险,我对致力于确保Neuralink开发的神经医学设备尽可能减少对人体危害的科学家和监管机构充满敬意。但与此同时,随着技术不断创新,他们也必须对新想法持开放态度。

 

心理和行为影响

第二个问题则更为棘手,因为它涉及潜在的心理和行为影响。当这项技术被用于医疗目的时,神经交互技术的好处以及其可能如何影响一个人的精神状态和行为的风险之间总会有权衡。但随着这项技术从修复转向增强,会导致的潜在行为和情绪变化需要更严格的审查。

 

例如,当人们开始使用这些设备时,是否有可能发生性格变化或上瘾行为,或出现慢性心理障碍?在这方面,存在一种风险,即从广泛使用这项技术到出现心理问题之间的长时间滞后可能会使事情进一步复杂化。如果人们在对长期影响完全了解之前就开始依赖这项技术,这可能意味着灾难。

 

此外,还有第三个道德层面的问题,以及这项技术可能带来的更广泛的社会影响。

 

虽然Neuralink目前专注于利用其技术解决医疗问题,但该公司的长期目标是创建一个与大脑连接的人工互联网覆盖层,使用户能够与未来的智能机器进行交互。这是一个大胆的目标,其目的是改造社会。正因为如此,它导致了道德和责任方面的问题,这些问题必须在技术仍有机会以负责任的方式使用时加以解决。

 

例如,如果在将来的某个时候你得到一个神经连接植入物来增强你的心智能力,或者用于娱乐目的,那么谁拥有这个植入物并能访问它的数据和功能呢?根据现行法律,几乎可以肯定绝对不是你。

 

这似乎没什么大不了的,也许到后来你会发现拥有该设备的公司威胁要停用它,除非你为最新的升级付费,或者你发现自己容易受到黑客的攻击,因为你没有购买升级计划。谁拥有这个设备当然也会引发一些问题,比如谁拥有你的大脑信号,甚至谁有权向你的大脑写入数据。我们可能会看到一个强制性的自动更新覆盖你的设备和思想的未来。

 

神经连接技术的这种改变神经系统的能力引发了许多其他问题。这是计划中的医疗应用程序所必需的功能。但是不用怎么费脑子我们也知道,人们肯定想要利用这项技术来提高自己的认知能力、身体灵活性、感知能力、情绪,甚至是个性。

 

想象一下,如果你可以通过手机上的一个应用程序来提高你的思维能力或记忆力,或者轻轻一按开关就能改变你的情绪,何乐而不为呢?你可以将神经连接整合到游戏系统中,这样你就能从内心感受自己的动作然后挥洒自如。在观看电影时,神经植入物也可以用来放大屏幕上的情绪。

 

在不久的将来,上述的这些都有可能成为现实,但千万不要忽视了其中潜在的风险。想象一下——可以触发情感反应的广告,可以操纵你感受的新闻推送,或者允许其他人通过简单文本改变你行为的应用程序。最重要的是,你的智能手机一旦被盗或被黑,风险系数可比现在高了不止一个维度。

 

我们现在正变得越来越投机。公平地说,Musk已经明确表示,他反对用神经广告资助神经植入的想法。然而,随着技术的成熟,如果要开发和道德地、负责任地使用神经链接,这些都是需要探讨的重要话题。

 

让我们假设上面提到的消极因素都没有发生。现在的问题仍然是谁能获得这项技术,谁不能。如果脑机交互技术真的有这么厉害,那么我们就是在亲手建立一个更为两极化的社会——在这个社会里,比起那些被认为不配获得技术的穷人来说,特权阶层能够得到更好的工作,获取更多的报酬,享受更为美好的生活。

 

这可不是什么无聊的问题。在谁能从新技术中受益的问题上,已经存在着社会差距,新技术的诞生无疑加剧了社会中特权阶层和边缘群体之间的差距。我们必须考虑神经植入技术可能会进一步扩大这一差距。

 

负责任地推进技术的发展

除非像这样的伦理问题在早期就得到解决,否则我们将看到的未来,要么是脑机交互产生的问题多于它们能够解决的问题的未来,要么是神经连接技术被丢进垃圾堆的未来——因为它从一开始就没有足够认真地对待社会和伦理问题。

 

好消息是Neuralink和其他公司仍有时间为技术道德和负责任的创新制定强有力的战略,这样整个社会都可以确保技术得到有效控制并引导其向好的一面发展。但是,除非我们开始一场更广泛、更深入、更有见地的讨论,否则Musk描绘的未来并不像他可能希望的那么美好。

微信公众号

声明:本站部分作品是由网友自主投稿和发布、编辑整理上传,对此类作品本站仅提供交流平台,转载的目的在于传递更多信息及用于网络分享,并不代表本站赞同其观点和对其真实性负责,不为其版权负责。如果您发现网站上有侵犯您的知识产权的作品,请与我们取得联系,我们会及时修改或删除。

网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片
SEM推广服务

Copyright©2005-2026 Sykv.com 可思数据 版权所有    京ICP备14056871号

关于我们   免责声明   广告合作   版权声明   联系我们   原创投稿   网站地图  

可思数据 数据标注行业联盟

扫码入群
扫码关注

微信公众号

返回顶部