哲学僵尸应该有能力提出有关体验属性的任何问题。不过,值得深思的是,一个缺乏体验的人或机器如何能回顾其没有过的体验。
作者简介:乔·弗洛里希(Joel Frohlich)是加州大学洛杉矶分校的一位博士后研究者,在马丁·蒙蒂的实验室中从事意识研究,他在加州大学洛杉矶分校获得了神经科学博士学位,师从沙法利·耶斯特(Shafali Jeste),当时的研究方向是神经发育紊乱的生物标记物。目前他还是科学交流网站“Knowing Neurons”的总编辑。
澳大利亚哲学家大卫·查莫斯(David Chalmers)有一个著名的问题是,是否可以想象“哲学僵尸”(philosophical zombies)——那些表现得像你我一样却又缺乏主观经验的人——的存在?这个问题引起了很多学者对意识的兴趣,包括我。原因在于,如果这种僵尸(或者说精密但毫无感情的
机器人)可能存在,那么仅仅用物理属性——关于大脑或类似大脑的机制——就无法解释意识体验。相反,我们必须考虑一些额外的精神属性,才能解释什么是有意识的感觉。弄清楚这些心理属性是如何产生的,就成为所谓的“意识的困难问题”。
但是,对于查莫斯的哲学僵尸一说,我有一个小小的问题。哲学僵尸应该有能力提出有关体验属性的任何问题。不过,值得深思的是,一个缺乏体验的人或机器如何能回顾其没有过的体验。在播客“Making Sense”(此前的名称是“Waking Up”)的一集节目中,查莫斯与神经学家兼作家萨姆·哈里斯(Sam Harris)讨论了这一问题。“我认为至少设想一个能这么做的系统并不是特别困难,”查莫斯说,“我的意思是,我现在正与你交谈,而你正在做出大量有关意识的评论,这些评论似乎很强烈地表明你具有意识。尽管如此,我至少可以考虑这么一个想法,即你并没有意识,你实际上是一个僵尸,你发出所有这些噪音的同时内心并没有任何意识。”
这不是一个严格的学术问题。如果谷歌的DeepMind公司开发了一个人工智能,它开始提问“为什么红色感觉像红色,而不是其他什么东西”,那么就自有少数可能的解释。或许它从别人那里听到了这个问题。这是可能的,例如,人工智能可能只需要简单地阅读有关意识的论文,就可以学会提出关于意识的问题。它还可能经过编程来提出这个问题,就像
视频游戏中的角色一样。或者,它可能从随机噪音中蹦出了这么一个问题。很显然,提出有关意识的问题本身并不能说明任何事情。但是,如果没有从其他来源听到这些问题,或者没有足够的随机输出的话,一个人工智能僵尸会自己构想出这种问题吗?对我来说,答案显然是否定的。如果我是对的,那么我们就应该认真考虑当一个人工智能自发地提出有关主观体验的问题时,它就很可能是有意识的。因为我们不知道在没有确定一个人工智能是否有意识的情况下,拔掉它的电源是否合乎道德。我们最好现在就开始注意听取这些问题。
我们的意识体验由“感质”(quale)组成。感质即感官感受的主观方面,例如红色中的红,甜味中的甜。构成意识体验的感质是不可简化的,无法被映射到其他任何事物上。如果我天生失明,那么任何人都无法让我感受到鲜血和玫瑰花共有的颜色感受,无论描述得多么清晰。即使我是发展出盲视能力——尽管失明但是能够避开障碍物并准确猜出电脑显示屏上物体出现的位置——的众多失明者之一,情况也同样如此。
盲视似乎表明一些行为可以完全机械化,也就是说,可以完全没有任何主观意识地做出某些行为,这回应了查莫斯的哲学僵尸概念。盲视者的大脑似乎利用了视觉系统的前意识区域,在没有视觉体验的情况下产生视觉行为。这种情况经常发生在一个人遭受中风或其他视觉皮层损伤之后。视觉皮层是处理视觉信息的大脑皮层。由于此时人的眼睛仍然是健康的,因此眼睛可能会将隐藏在意识中的信息提供给特定的大脑区域,比如上丘(superior colliculus)。
出于同样的原因,也存在少数聋人具有听力的案例。2017年发表于《哲学心理学》(Philosophical Psychology)期刊的一篇报告详述了一个这样的案例,一位被称为LS的男性患者尽管天生失聪,却能根据内容区分不同声音。对于像LS这样的人,这种辨别能力是在寂静中产生的。但是,如果一个聋人问出类似正常人所提出的问题,比如“那个声音听起来难道不是很奇怪吗?”那么我们就有充分的理由怀疑这个人是不是真的聋了(我们不能完全确定,因为这个问题可能只是一个恶作剧)。同样,如果一个人工智能开始自发地提出只有具备意识的Kaiyun官方网站app登录 能提出的问题,那我们就会合理地产生类似的怀疑:主观体验是不是已经上线了?
在21世纪,我们迫切需要就意识进行图灵测试。人工智能正在学习如何驾驶车辆、诊断肺癌以及编写自己的计算机程序。智能对话可能在十年或二十年内就会出现,而未来的超级人工智能不会生活在真空中。它将可以访问互联网,读取查莫斯和其他哲学家关于感质和意识等问题的著述。但是,如果科技公司能在本地内部网上对人工智能进行beta测试,隔离这些信息,他们就可以进行图灵测试式的对谈,以检测有关感质的问题是否对人工智能有意义。
面对一个潜在的硅基思想,我们会提些什么问题?对于诸如“如果我的红色是你的蓝色怎么办?”或“会有比绿色更绿的颜色吗?”这样的问题,人工智能给出的答案应该能让我们了解很多关于它们精神体验(或者缺乏精神体验)的情况。一个具有视觉体验的人工智能可能会思考这些问题暗示的可能性,或许会这么回答,“是的,我有时会想知道是否还会存在一种颜色,能将红色的发热与蓝色的冷淡混合在一起。”另一方面,缺乏视觉感质的人工智能可能会回答,“那是不可能的,红色、绿色和蓝色各自以不同的波长存在。”即使人工智能试图自由发挥或欺骗我们,比如回答“有意思,如果我的红色是你的汉堡包怎么办?”这就表明它没有抓到重点。
当然,人工意识也可能具有与我们自己截然不同的感质。在这种情境下,关于特定感质(比如颜色感知)的问题可能就无法触动人工智能。但是,关于感质本身更加抽象的问题或许就能筛选出哲学僵尸。出于这个原因,最好的问题很可能就是“意识的困难问题”本身:意识为什么能够存在?为什么你在处理周围世界输入的信息时会体验到感质?如果人工智能认为这个问题有意义,那我们就很有可能找到人工意识。然而,如果人工智能明显不理解诸如“意识”和“感质”等概念,那么关于其内心精神生活的证据也就不存在了。
建立一个意识的“检测器”并不是一件小事。除了这样的图灵测试,未来的研究人员还可能会
应用今天的抽象意识理论,试图从计算机的接线图中推断出意识的存在。一种这样的理论就考虑了大脑或其他系统整合的信息量,并且已经被用于推断脑损伤患者是否具有意识,甚至用于推断鱼群是否具有意识。事实上,在以检测人工意识为动机的研究获得大量资金支持之前,在脑损伤患者中检测意识的需求就已经突破了科学上的禁忌。
我所在的实验室由加州大学洛杉矶分校的马丁·蒙蒂(Martin Monti)领导,致力于通过开发更好的手段,从大脑电生理活动或代谢活动来推断意识的情况,从而改善脑损伤患者的生活。当我们拔掉那些意识清醒但没有反应的患者的生存设备时,就会产生伦理悲剧;而如果我们拔掉人工意识的电源,就会出现同样的悲剧。就像我在加州大学洛杉矶分校的实验室所做的工作,就是将理论上的意识测定与脑损伤患者的临床行为联系起来,而未来的研究人员也必须将人工意识的理论测定与人工智能在某种图灵测试中的表现联系起来。到了那时,当我们不再需要教科书的时候,我们仍然需要思考僵尸无法回答的那个问题。(任天)