全自动武器系统,可以在不受人类操纵的情况下对目标自行判断并发动攻击,也被称为“杀人
机器人”;美国国家情报委员会预测2030年将出现仿生机械超人;
机器人反人类控制是科幻
电影偏爱的故事;很多人担忧机器人真的成为人类的终结者。机器人是否就是人类的末日?
也许科幻电影太多地描绘了机器人反人类统治而控制了地球的未来,因此引发一些人的不安,担心幻境成真。国际人权组织“人权观察”就是其中之一,2012年11月他们联合美国哈佛大学发表了一份报告,呼吁国际间禁止研发全自动武器系统。这种可以在不受人类操纵的情况下对目标自行发动攻击的武器,也被称作“杀人机器人”。
报告声明:应设立国际性法规禁止研发、生产及使用全自动武器;并采取国家立法与政策制定来约束研发、生产及使用全自动武器。
报告说,这样的军用机器人可能在20至30年内问世;这样的机器人将无法区分军人和平民;包括美国在内的许多国家都对以机器人代替士兵的设想感兴趣。
美军或将研发“杀人机器人”
巧合的是,就在这份报告发布3日后,美国国防部发布了一份关于“全自动武器系统”的指令,据英国《卫报》12月3日报道,指令指出,这种系统一旦激活,即可自行选择和处理目标而不需要任何人的操控。同时将建立相关政策,分配开发和使用自动或半自动武器系统的人的责任。
事实上,这已经不是美军第一次讨论这种武器的可能性,早在2004年美国国防部就已经给研发者亮了绿灯。总的来说,美国国防部希望的是最彻底的实验,从研发到使用到操作者的培训,并确保适用法律的配套,而且确保有人类电脑终端能结束错误任务。当然他们也反复强调了建立有关政策防止任何可能出现的错误而导致系统的失控。
英国《卫报》的特约作者诺尔·沙基在他的评论文章中称,这种反复强调的错误,包括以下几个方面,人为错误,人机交互失败,系统失灵,通信未升级,软件编码错误,敌人网络攻击或渗透供应链,干扰,电子欺骗,敌人的其他行为,或是战场上的意外情况。
诺尔·沙基是英国的人工智能和机器人专家,对于这种“杀人机器人”出现的可能十分担忧。并且他在文章中称早在2007年他就已经在《卫报》发表文章警告国际社会这种机器人的危险性,但至今也没有看到国际上有关于限制杀人机器人研制的立法讨论。
“人权观察”的报告认为虽然目前这种全自动武器还没有出现,而且世界强国包括美国也没有最后下决心发展这种武器。但是高科技的军事正在发展或者已经发展出了能够推动这种全自动武器发展的基石,除了美国,德国、以色列、韩国、俄罗斯、英国、中国都已经具备了这种能力。
一些专家认为,这种武器可能在20、30年内就可完成,甚至是更快。而就在12月10日,美国国家情报委员会作出预测:2030年将出现仿生机械超人。
人工智能会否成为杀人武器
全自动武器系统若要有一定的自行判断能力,就要以人工智能为基础。但随着人工智能的发展,出现杀人机器人的担忧会越来越多,甚至人们也会担心用于其他地方的服务型机器人也可能因为某些错误的出现而导致安全问题。尤其是当人工智能越来越接近人类的智力,甚至拥有了类人的情感。
在专业领域内,一些专家将机器人学和人工智能看做是两个独立的学科。美国计算机科学教材系列《人工智能》作者提姆·琼斯(Tim Jones)认为,机器人学和人工智能是两个独立的领域,但却是相互补充的。机器人为人工智能提供了其他事物所不能提供的物理表现形式。
他对《中国科学报》记者说:“虽然可以通过机器人模拟,了解人工智能
应用在机器人上时可能产生的问题,但是模拟容易掩盖一些需要解决的问题。因为,模拟本身是人工控制环境的,而机器人本身和自然环境却是复杂和凌乱的。”
因此,琼斯在他编写的教材中,将机器人学和人工智能分离为两个学科。“机器人学能为人工智能研究带来好处。虽然我们可以制造一个完全不结合人工智能的机器人,这种机器人系统只是按预定程序办事,但它的重要性绝不能与建立一个拥有智能的机器人系统相比。”
当人工智能越来越高级,拥有人工情感、类人情感就成为一个必然的方向。琼斯也告诉《中国科学报》记者,没有情绪的机器就不能称之为拥有真正的人工智能,但不是所有的情绪对机器都是有利的。如果一个机器能够展现愤怒或嫉妒这样的情绪那就隐藏着危险。他说:“拥有情感能让机器感知用户的情感。能表达和能感知情绪都是有必要的,但是这也会导致新的问题。”
北京科技大学物联网与电子工程系主任王志良告诉《中国科学报》记者,对于机器人或者是人工智能的研究一定要有一些制约,或者是准则来约束研发类似杀人机器人是非常必要的。因为全自动武器是很容易做到的。
比如美国的无人机,在长时间飞行中,通过高精度的影像技术,可以将敌人的行为完全掌握。而武器的高精度打击,或者称为定点手术都已经是非常成熟的技术。
科幻电影中经常出现机器人拥有的一定水平的智能后,开始不断学习人类的思维方式,学习人类的知识,甚至产生控制人类的“野心”,或是对既有法则的过度分析后以保护人类的名义而反人类。
王志良说:“当机器拥有了一定的学习能力,我们必须在人文或是法律上有这样的制约,不能够将权力全部交给机器人,这绝对是有风险的。尤其是在机器人渐渐普遍进入家庭,如何保证安全非常重要。”
人类智慧难超越 机器“逆天”无可能
早在1940年,科幻作家阿西莫夫就提出了著名的“机器人三原则”:1.机器人不应伤害人类;2.机器人应遵守人类的命令,与第一条违背的命令除外;3.机器人应能保护自己,与第一条相抵触者除外。
这是给机器人赋予的伦理性纲领。学术界一直将这三原则作为机器人开发的准则。而王志良认为这个三原则已经越来越适用于机器人和人工智能的研究。
很多科幻电影中,还是会在最后揭示出,机器毕竟是机器,它们获得的“思维”还是基于人类的程序设计。人最终会通过自身更高级智慧重新掌控机器。
在业内,人类智能和机器智能通过两个词语区分,即“湿智能”与“干智能”。人类以及动物的大脑都是生物基础,有血液等等,因此被称为湿智能,而机器人的大脑都是由集成电路等固态的东西组成。王志良说:“物质构成的不同,决定了它们能够产生和表现出来的性能肯定是不一样的。”
从海洋到大陆,从水生生物到陆地霸主,人类的大脑是经过几亿年的变迁与进化,才拥有了今天这样的智慧,而机器人的研究只不过几十年。
英特尔(Intel)创始人之一戈登·摩尔提出的摩尔定律指出当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也将提升一倍。
虽然现在硅电路(集成电路)的运算速度越来越快,存储量越来越大,但王志良告诉《中国科学报》记者,集成电路的这种发展已经经过了几十年,可能在十年后就会达到极限。即使做到极限,与人的大脑也是无法比拟的。“因此,机器人拥有能够战胜人类的智慧这种事是无须担忧的。”
提姆·琼斯也说:“我不认为机器人有任何可能成为人类的威胁,尤其目前在研究中还有很多未能解决的问题。实际上那个人类本身就是一部令人惊叹的机器。面对很多不能解决的问题,人类自身的归纳能力以及解决新问题的能力都超越了任何的机器。”
琼斯表示,作为人类,我们今天能够从人工智能获得很多利益,更有助于人类自身的扩张。在人工智能研究的早期阶段,其目标就是发展能思考的机器,在某些领域还渴望让机器人能拥有这样的智能。
但实际上,现阶段的人工智能研究已经趋于更实际的目标,都是有利于目前技术的发展和改善我们的生活。知识的分类和开发传播已经是在线即时的,这让我们能够不断地扩大学习范围。这让人类变得更加聪明,当然也有少数人认为网络降低了我们的智商而且从根本上改变了我们的思维方式。虽然这是在建立虚拟和实体智能时一定会伴随的危险,但也是我们必须做的。
机器人三原则:
机器人不应伤害人类;
机器人应遵守人类的命令,与第一条违背的命令除外;
机器人应能保护自己,与第一条相抵触者除外。