人工智能似乎渗透进我们生活的更多方面。随着AI大脑获得相当于百万博士学位的知识,吸收万亿比特的数据,并以富有吸引力的语气和举止生成回应,听起来如您最喜欢的老大学教授一般简单和人性化,一些人不禁要问:计算机是否正在变得有感知能力?
愤世嫉俗者会回答:“当然不是。计算机可能在几秒钟内解决需要人类几代才能解决的问题,但它们不能感受爱和痛苦,不能看到和欣赏月亮和星星,不能闻到我们溅在键盘上的咖啡。”
但其他人则建议我们需要更清楚地定义我们已理解为感知能力的内容。我们所理解的意识可能有不同程度吗?人类、动物和智能机器之间的主观体验是否有重叠的组成部分?
来自美国、英国、以色列、加拿大、法国和澳大利亚的19名神经科学家在8月22日发表在预印本服务器arXiv上的一份报告中探讨了这个问题。
OpenAI开发ChatGPT的一位首席科学家去年推测,先进的AI网络可能“略微有意识”。一年前,一名谷歌科学家在宣称LaMDA(聊天
机器人Bard的前身)有感知能力后被解雇。
但是,在对众多意识理论进行了广泛分析后,题为“人工智能中的意识:来自意识科学的见解”的报告作者得出结论,AI系统没有意识;至少目前还没有。
然而,他们绘制了未来研究人员值得考虑的途径。
报告的主要作者Patrick Butlin说:“我们的分析表明,当前没有AI系统有意识,但也表明,没有任何技术障碍可以阻止构建满足这些指标的AI系统。”
他们将意识理论缩小到了他们认为是意识实体的六个令人信服的指标。
一个例子是递归处理理论,它指出大脑通过反馈循环处理信息。通过这样的循环,大脑可以适应变化的环境,调整感知,做出更明智的决定。这种迭代行为对记忆形成和获取新知识至关重要。
另一个关键概念是高阶理论,一些人总结为“意识到自己在意识”。
Butlin说:“高阶理论与其他理论的区别在于,它们强调,为了使心智状态有意识,主体必须意识到自己处于那种心智状态,以及它们提出解释这种意识的方式。”
第三个因素是全局工作空间理论。它认为,当信息在大脑中变得全局可访问时,意识就实现了。信息不局限于个别感觉输入,而是包含在可用于各种内在认知过程的全局中心。
报告提出的检测感知能力的工具“为评估AI系统是否可能具有意识提供了我们目前可用的最佳方法”,Butlin说。
Butlin说:“我们部分发表此报告是因为我们认真对待在相对近期内构建有意识的AI系统的可能性—在未来几十年内。这些前景引发了深刻的道德和社会问题。”
本文译自techxplore,由BALI编辑发布。