鲜为人知的是:著名科幻小说作家艾萨克·阿西莫夫一开始并没有在《I, Robot》这部小说中写出著名的“机器人三大定律”。
实际上,机器人三定律第一次出现是在1942年的短篇小说《Runaround》中。三定律写道:
1、机器人不能伤人,或见到伤人事件无作为;2、机器人不能违背人类的命令,除非违反第一条定律;3、机器人必须保护自己,除非违反第一第二条定律。
75年过去了,我们仍然在探讨阿西莫夫小说中的未来。阿西莫夫的三定律似乎更专注于“强人工智能”,你可以在《2001:太空漫游》中人工智能哈尔(HAL)身上发现这样的特质,但这并不能适用于亚马逊新型人工智能Echo。
强人工智能模仿人类的大脑,就像一个不断进化的孩子,直到它变得有知觉,并能处理你扔给它的任何问题,就像人类一样。要想实现这一目标,还有很长的路要走,但今天我们要处理的是狭义的人工智能,在这种情况下,算法可以处理有限的任务。它识别人脸,理解你对它发出的“明天天气怎样”的问题,或者试图预测你是否应该给某人一笔贷款。
不过,JonathanM.Smith说,为这种人工智能制定规则已经相当困难了。Jonathan是计算机机械协会组织的一员,也是宾夕法尼亚大学的计算机科学教授,他说,即便是在目前弱人工智能的水准上,也仍有大量的伦理问题需要解开。“短期问题非常重要,因为人工智能处于技术和政策的边界,”他说,“你肯定不希望有人利用人工智能来钻法律的空子,逃避或转移我们努力在做出的社会政治决策。”
无论是真实的还是想象的,人工智能在伦理上已经出现了一些棘手的难题。其中一个是著名的电车问题,这是《苏菲的抉择》这部电影中的场景:一列进行中的火车将在两组人身上驶过。如果你什么都不做,火车会驶过,然后杀死5个人。如果你主动拉动一个闸刀,改变火车轨迹,火车就会压死另外一行轨道上的一个人。你必须做出选择。
因此,人工智能的批评者经常会把这个应用到自动驾驶汽车上。一个孩子跑到马路上,汽车没有时间停下来,但是自动驾驶可以选择转向,并撞到一个老人。AI该怎么做,谁来做这个决定?
这一主题有很多不同之处在于,麻省理工学院甚至将其中的一部分收集到了一个在线游戏中。有一个经典的反驳观点是:自动驾驶汽车不会在学校里超速行驶,所以不太可能发生上述的情形。
功利主义者可能会争辩说,通过消除注意力分散、醉酒或疲劳的司机,全球范围内的死亡人数将会减少,这意味着整个社会赢了,即使一个人死亡。你可能会指出,就算是人类可能也会在这个场景中选择杀死其中一个人,那么,我们为什么还要进行这样的对话呢?
YaseminErden是玛丽女王大学的哲学高级讲师,她对此有一个答案。她指出,她花了大量的时间考虑伦理和计算机在人工智能和行为模拟方面的研究,事情没有发生之前模拟做出的决定表明了人的道德取向,并会招致他人的评判,但现场做出的决策则没有。
她说:“有道德判断的自动驾驶编程,知道风险是什么,这意味着公众可能不太愿意把事情看成是事故。”或者换句话说,只要你在驾驶中足够负责任,你就可以在撞了任何人之后说:“是那个人自己突然跳出来的。”,你的任何行为都可以被原谅。但是人工智能算法在道德上并没有获得这么奢侈的谅解。如果计算机在某些情况下比我们更快速、更能判断,那么它们的编程方式就很重要了。
专家们在呼吁责任,但指望算法能够得出电子伦理这件事合适吗?
凯菲特-巴特菲尔德说:“我需要对我的算法进行交叉检查,或者至少知道如何找出事故发生时的情况。”她是一名专攻人工智能问题的律师,同时也是艾奥斯汀的执行董事。她说,今年3月成立的非营利人工智能智库“道德顾问委员会”是由人工智能公司露西建立的伦理委员会。
”我们需要一种方法来理解人工智能算法在做事情时“思考”的方式。你怎么能对一个病人的家人说,他们因为‘我们不知道是怎么发生的’AI干预而死亡?”因此,问责和透明度是很重要的。让你困惑的是为什么你的车会因为避让一只猫突然转向了一条狗,这并不是唯一需要提高透明度的人工智能问题。
有偏见的人工智能算法会导致各种各样的问题。例如,面部识别系统可能会忽略有色人种,因为AI的训练数据库中没有关于有色人种的足够的面部特征,又比如:带有偏见的人工智能可能会自我强化,从而损害社会。如果社交媒体知道你喜欢看到一种政见的新闻,并且只向你展示这样的新闻,那么随着时间的推移,我们可能会失去批判性辩论的能力。
'J.S穆勒提出了一个论点,如果想法没有受到挑战,那么它们就有可能成为教条。”Erden回忆道,很好地总结了她所说的“过滤泡沫”问题。(穆勒是一位19世纪的功利主义哲学家,他强烈支持基于经验证据的逻辑和推理,所以他很可能不会喜欢和Facebook上的人争论。)因此,如果人工智能创造出了数十亿人,他们不愿意,甚至没有能力分辨彼此的想法,这难道不是一个需要解决的道德问题吗?
另一个问题是与机器人的情感关系的形成。菲尔德-巴特菲尔德感兴趣的是两种不同的范围——儿童和老年人。孩子们喜欢把自己不信任的东西放在身边,这使得他们与人工智能交流变得更容易接受。她担心人工智能机器人可能会让孩子们成为他们产品的理想客户。同样,另一方面,她也在思考人工智能机器人如何为老年人提供照顾和陪伴。
“这是否会让人类没有与人类互动的权利,而只是被机器人照顾?”她说,“我认为这将是我们这个时代最重大的决定之一。”
这凸显了人工智能的一个区别,即算法是如何做到的,以及我们想用它来实现什么。亚历克斯伦敦是卡内基梅隆大学道德与政策中心的哲学教授和主任,他说,推动问题的本质是机器想要做什么。这可能是最根本的问题之一。
“如果机器出了问题,这是有问题的,那么道德编程(即它如何能在道德上提高这一目标)听起来是错误的,”他说,“这很棘手,因为很多都是出于人类自身的意图。”
如果它能提高老年人的生活质量,作为频繁拜访和与家人通话的补充,机器人可能会很棒。但同样,以机器人作为借口忽视年长的亲戚,将会带来相反的后果。
就像从厨房刀到核聚变的任何技术一样,这个工具本身不是好是坏,取决于使用它的人的意图。即使是这样,亚历克斯伦敦也指出,如果有人认为他们用这个工具做得很好,而其他人则不好,又是什么样的情况呢?
对于这些道德问题,我们自己又是清醒的吗?随着人工智能的发展,这些问题已经开始显现出来。我们离智能机器人不远了,目前正在和那些愿意停止怀疑的人进行可行性的对话。
自动汽车厂商正在将狭义的人工智能技术结合起来,生产出能够解决复杂问题的产品。然而,专家警告说,大多数人所认为的强人工智能,即具有模仿人类大脑功能的人工智能,离我们还远。
SteveTorrance是苏塞克斯大学信息学院认知科学研究中心的高级研究员,他花了几十年的时间来思考一个强大的人工智能会产生的问题。什么是意识,而强大的人工智能会有吗?我们是否应该建立强大的人工智能,如果有的话,它会有情感吗?它应该拥有人权吗?
谷歌工程负责人RayKurzweil甚至提出,你能不能创造出许多你自己的意识副本?“我认为这引发了可怕的问题,”Torrance说。“不止一次,而是千万次,你可以创作出很多个自我。”并且每个自我都可以获得投票的权利。
算法解放!政治人士对这一点很感兴趣。今年1月,欧洲议会投票通过了一项关于人工智能研究和使用监管框架的提案。在许多情况中,它解决了机器人的治疗问题。这一提议,虽然仅为人工智能的一个可能的法律框架,但也可能会带来一些法规,让机器人拥有一种类似企业人格的地位。