热搜: 佳士科技irobot开云电竞官网下载app机器人ABB机器人产业联盟发那科库卡码垛机器人机械手

关于机器人杀人事件的几点思考

日期:2015-07-17 来源:钱讯网 作者:OCY 评论:0
标签:
  最近,位于德国的一家汽车制造厂里,一台高度自动化的 机器人突然出现了错误操作,抓起旁边的一名安装工人,摔向了一块金属板,造成该工人不幸罹难。消息一出,舆论哗然:加上不久之前刚刚上映的 电影《超能查派》,很多人开始担心,以后科技进步了,会不会出现特别聪明的机器人,背叛了人类的意志,最终成为《终结者》里那样主宰世界的机器霸主?另外,如果机器人真的杀人了,谁该为这样的凶杀承担责任?
  其实啊,这事还真没那么可怕啦。
  啥是机器人?
  在讨论之前,我们不妨先来划定一个范围,什么样的东西,才算是机器人呢?
  实际上,这个问题并没有确切的答案,因为随着科技的发展,科学家们给出的定义被不断刷新。通常认为,对自己具有一定的控制和感知能力,能够自主完成一定的动作的机器装置,就可以算做机器人。
  这里所说的“自主”,又有两层意思:第一种,是按照人类预先给它设定好的程序,按部就班地执行下去,实现人类设计好的功能。这种机器人如今已经非常普遍,大到登月的“玉兔”号探测器,小到家用的 扫地机器人,都属此类。
  也就是说,这类机器人要去做什么事情,都是它的制造者说了算的,它只是一个工具,并不拥有真正的自主意志——和原始人手里的石斧并没有本质差别;区别只在于这种工具比较“聪明”,能够根据实际工作的情况,更灵活、更精确地实现主人设定的程序,完成更加复杂而精确的行动,就像在坑洼不平的路面,坐汽车肯定比坐牛车舒服。
  第二种就有点吓人了,这种机器人拥有一定的人工智能(AI),能够自主学习和独立思考,在人类给它设定的程序之外,实现人类没有教给它的功能,就像电影里的查派和终结者。这种机器人的行为是不可预测的,就像我们看到一个襁褓中的孩子,也不可能知道他将来会成为怎样的人,做出怎样的事情来?
  真会杀人?
  提到机器人“谋杀”人类的问题,第一种机器人显然不在讨论之列,因为正常情况下它们并没有被设定杀人的程序,哪怕是真的判断失误而误伤人类,那也只能是意外事故;即便是有谁使坏,故意给机器人装了危险的指令,此刻的机器人依然还是一个工具而已,并没有自主的意志。
  这一类机器人致人死亡的事情,实际并不算罕见,比如本文开头提到的这起事故。理由也很简单,任何人类制造出来的东西,都不可能100%地确保不出故障;而越是功能复杂、制造精密的系统,发生故障的概率就越难降低。回想一下,这些年人类发射的无人航天器,从菲莱、玉兔到新视野号,尽管都代表了当时最先进的科学技术,但多多少少都有掉过链子。
  机器出了故障就有可能对人类造成伤害,人类能做的只能是尽量降低故障率,加强安全防护,却不能因噎废食,放弃机器人的运用。全世界范围内,因为汽车出现故障而致人类死亡的案例每天、每小时甚至每分钟都在发生,但汽车依旧是人类最青睐的机器;同理,我们也没有必要对机器人苛求永不犯错。
  尽管从理论上说,第二种机器人完全可能以“自主的决定”去杀害人类,但令人宽慰的是,囿于科技的发展水平,目前世界上还没有造出一种和人类能力接近的人工智能(AI),所以我们暂时还不用担心这事。
  但是,还有一类介于这两者之间的机器人,还真的可能会成为人类的杀手,那就所谓的战争机器人(killer robot)。
  目前大家所熟悉的“掠食者”无人机,本质就是战争机器人,但它依然属于我们说的第一类机器人,导弹要锁定谁、要不要发射都是由坐在基地里的人类遥控决定的。然而,一些国家已经在研制自动化程度更高的战斗机器人,允许它们在战场上自主寻找、选择目标,再自己决定是否开火。显然,这类机器人如果出现故障或者误判,后果会比工厂里的焊接机器人严重得多。 今年3月,联合国秘书长潘基文先生曾公开呼吁各国停止此类研究,但似乎效果很有限。
  如何预防?
  可以预见的是,制造机器人的科学技术仍会不断发展,而人类对于机器人的运用也会越来越广泛,无论是居家生活、工业生产中都是如此。比如,谷歌公司一直在研究的无人驾驶汽车,或许数年之后就会行驶在马路上。
  因此,如何尽量避免“机器杀人”的危险出现,就是一个很有现实意义的问题了。
  对于第一种机器人(也就是目前使用的机器人)而言,除了在设计、调试时更加谨慎之外,最实际的措施就是减少人类和机器人直接接触的机会。对于有固定工作地点的机器人(比如流水线上的机器臂),可以设置物理隔离并划定危险区域,禁止无关人员靠近;对于能自主走动的机器人(比如扫地、送外卖的机器人),则可以加装规避装置,让它和人类时刻保持安全距离。此外,给每台机器人加装操作简便的“红色按钮”, 确保在它出现错误动作时,人类能够一键关停。
  对于第二种机器人(具有自主思维能力的AI机器人),实际上并没有确切的预防方法,因为谁也不知道真正的人工智能将会如何思考、如何学习,如何理解人类的情感?一种可能的思路是,按照科幻小说作家阿西莫夫提出的“机器人三定律”来制约人工智能,将“机器人不得伤害人类”、“不能眼见人类处于危险而袖手旁观”原则贯穿整个开发工作的始终,“从小开始”培养 智能机器人对于人类的服从与善意。
  当然,这种方法能否奏效,目前依然有很大的争议。另一种观点认为,如果我们真的能制造出一个自主学习、独立思考的人工智能机器人,其性质就跟渔夫撬开胆瓶上所罗门的封印差不多,人类根本无法预测、控制这个AI能够学到多少知识,又会用这些知识造出什么样的东西来(或许可能是它自己的许许多多个副本),搞不好就是人类文明的尽头。
  这次发生在德国的事故的确非常令人遗憾,但人类似乎并不需要对这种非智能机器人有太多顾虑,毕竟,我们早已将更加生死攸关的问题交给了电脑与机器(比如民航客机上的自动驾驶仪,记录你全部身家的银行、股市的服务器),对于“机器杀人”这种小概率的事故就更不需要焦虑了。
  相应地,对于未来可能出现的人工智能机器人,或许更需要引起关注与思考。当然,开发AI机器人是科学家和工程师们的事情,但有空了解下这个新奇的领域,也是件很有意思的事情。
更多> 相关开云电子链接
0 相关评论

推荐图文
推荐开云电子链接
点击排行
Baidu
map