机器需要讲道德,这是英国标准协会(简称 BSI)最新标准BS8611的目标。标准的全称是《 机器人和机器系统的伦理设计和 应用指南》。
这听起来像一个玩笑,你能想象你耍脾气黑屏的手机能懂温良恭俭么?其实,BSI是一个有着百年历史、很有权威的正经英国国家机构。标准主要针对机器人设计研究者和制造商,指导他们评估机器人的道德能否融入人类社会。
实际上,机器人伦理,面露着许多严肃和艰巨的挑战,甚至可能动摇人类文明的根基。
想象这样一个未来。可以轻易捏断成年男子脖颈的双手,轻抚着孩子的脑袋,提供着永不缺席的陪伴。浮现在比特海洋上的脸,无处不在无所不知,能听进失恋少女絮絮叨叨的倾诉,又能一眼看穿围棋大师对弈中的破绽。
更奇妙的是,有仿生科学的帮助,它们将拥有逼真的外貌。而随着计算机技术继续发展,机器拥有人格也不是不可能。它们是行走在人间的白素贞,法力通天,行善积德,人妖难辨。
通向如此未来的大门已经在打开了。谷歌公司的“阿尔法狗”在对弈中战胜了李世石。中国科技大学今年发布的“特有体验交互机器人”佳佳,面容姣好仿佛真人。而微软的聊天机器人小冰则温暖了无数宅男宅女的心。
那么,当远超于人类能力的机器有了类似人的情感,如何能确保人类的主导地位?他们变坏怎么办?
科幻小说《笔友》讲述了一个恋爱失败寻求发泄的故事。我们都有过类似的情绪,不过这次故事的主人公是一台超级电脑。它手握数个核弹头的开关,与笔友交恶后差点毁掉世界,还好最终被人类偷偷拆掉了。
在现实世界中,“机器变坏”的忧虑仍然存在。
今年3月,微软公司上线了一款叫“泰”的聊天机器人,几小时后又被迫将它下线。原因是“泰”不断爆出种族歧视、性别歧视之语。
“泰”是学坏的。
“泰”的聊天才能来自深度学习技术。这项技术不再通过编写程序,让机器按照某种既定方式完成任务。面对问题,机器将通过模拟高达数十万次不同的解决方式,自己探索出最成功策略。
这需要海量数据的支撑,很多数据来自用户,更多来自整个互联网。而这些数据既包含着道德上“对”的,也有“不对”的。“泰”的雷人之语,就是从和他聊天的坏家伙那里学来的。
这让人不禁思考:机器学习人的智慧最终做得比人还优秀;当他们开始学习人性中的恶时,我们将面对一个怎样的未来呢?
希望我们的结局不要像
电影《黑客帝国》里那样——机器彻底推翻了人类的统治,人类的肉体被养殖,精神存活在网络构建的虚拟世界里。
相对于可能发生的噩梦,离我们更近的麻烦,可能是人工智能对善恶标准带来的挑战。当机器以人的形态越来越融入人类社会,人类社会道德概念的外延被扩宽了。
当不远的未来,机器人白素贞想要和许仙谈一段恋爱,我们该如何面对?
不要说人对机器永远不会走心。一项调查显示,与机器狗玩耍后的孩子们,对它产生的情感认同,更深于家养宠物。当机器人更加像人时,人对机器依恋甚至上瘾的状况有可能出现。
有时候,受煎熬的不只是感情,还有人类生命。
想象一下这个场景。机器人白素贞手指化作枪口,对准杭州市民法海。她的行为是机器对人类发起的威胁,显然是错的。
但我们很快发现,她这样做是为了保护人类主人许仙。可是,这能正当化她的威胁么?当人类个体发出不同的需求时,机器人该如何做?
故事的最后,法海把白素贞拘禁在没有Wi-Fi的雷峰塔,系统18年都无法下载升级,勉强有电。这又是道德的么?要知道,白素贞只是机器啊。
面对这样一团乱麻,更富逻辑和理性的准则被提上日程。
科幻作家艾萨克·阿西莫夫在自己的科幻小说《我,机器人》里讨论了数个更加复杂的机器人伦理问题。女主人公达尔文博士依靠机器人三定律屡破困局:
机器人不得伤害人,也不得见人受伤害而袖手旁观;
机器人必须服从人的一切命令,但不得违反第一定律;
机器人应保护自身的安全,但不得违反第一、第二定律。
这三条定律被确定在机器人的逻辑电路中,容不得一点修改。而在现实世界中,这三条小说的产物也已经在人工智能的实际研究中被应用。
此次的《机器人和机器系统的伦理设计和应用指南》,是在技术发展的新时代,对三定律更详细的延伸。这项指南究竟能不能发挥效用还待观察。比如,它建议设计者增强机器工作的透明性。但科学家们觉得太悬了——深度学习系统作出决策的过程太复杂,有时候连系统的设计者都难以理解。
重重谜团中,描述人工智能未来的热门电视剧《西部世界》里,女主角的感受或许可以给我们带来少许灵感。她表示:通过尝试扮演一台机器,自己对人性的理解更加深了。