热搜: 机器人发那科机器人工业开云电竞官网下载app上海机器ABB机器人展会自动化广州

2029 年机器超越人类:未来学家 Ray Kurzweil 谈图灵测试、大脑延伸以及 AI 伦理

日期:2017-11-20 来源:36氪 作者:dc136 评论:0
  近日,提出了奇点概念的未来学家,现为Google工程总监的Ray Kurzweil跟《连线》杂志主编Nicholas Thompson在美国外交关系委员会进行对话。他们谈到了Kurzweil的加速回报定律的影响,奇点到来的时间、AI对人类的增强以及可能会引发的生存危机和伦理问题。以下为对话实录。
2029 年机器超越人类:未来学家 Ray Kurzweil 谈图灵测试、大脑延伸以及 AI 伦理
  Nicholas Thompson:我们先从你对加速回报定律的解释开始吧,这可是你协作和工作的基本理念。
  Ray Kurzweil:人类基因组计划进行到一半的时候,7年时间共收集了1%的基因。于是主流群体批评说:“我都告诉你们这是行不通的。现在都7年了才完成1%;就像我们所说那样,完成得要700年。”我当时的反应是:“哇,我们完成了1%了?那岂不是快要干完了?”因为1个百分点距离100%只用翻7番。此前每年都在翻番。的确这种情况得以延续。7年后,项目完成了。自从第一个基因组项目结束后情况还在延续——第一个基因组测序的花费是10亿美元,现在已经降到了1000美元。
  我只是提到了加速回报定律其中的一个潜在影响,因为它有很多涟漪效应——这股引人注目的数字化革命背后是信息技术50%的通货紧缩率。也就是说今天我可以用去年一半的价格获得一样的计算、通信、基因测序以及大脑数据。所以你可以用一半的价格买到比1、2年前好两倍的iPhone或者Android手机。这些改善的性价比一半体现在价格上,一部分体现在了性能上。那么当非洲的一个女孩用75美元买下一部智能手机时,这可以看成是75美元的经济活动,尽管其实它相当于1960年时1万亿美元的计算,或者1980年的10亿美元。里面还有价值数百万美元的免费信息app,里面的一个百科全书就比我小时候攒了好几年才能买得起的百科全书都要好得多。但这一切在经济活动上都视为0,因为它是免费的。所以我们根本就不计算这些产品的价值。
  所有这一切即将发生改变:我们准备用3D打印机印制衣服。不是在今天;现在我们还有点处在3D打印的炒作阶段。但到了2020年代初期,我们将可以印制衣服。到时候会有非常多开源的很酷的设计供你免费下载。时装业还在,就像我们现在还有音乐业、电影业以及图书业跟作为伟大的免费开源产品共存一样。我们将可以利用垂直农业用非常便宜的价格制造食物:用水培作物种出水果蔬菜,体外克隆肌肉组织来生产人造肉。第一个用这种方法做出来的汉堡已经被消费掉了。它的价格还很贵,要几万美元,但非常好。不过这只是研发成本。所有这些不同的资源都会变成信息技术。最近有栋大楼是用像乐高积木那样的模块(用3D打印机制作)组装起来的,一个3层楼高的办公室只用几天就造出来了。这会成为2020年代建筑的本质。3D打印机将打印出我们所需要的物理实体。
  NT:我们来谈谈智能,比方说我口袋里的手机。它数学比我好。围棋比我厉害。很多事情都强过我。不过它什么时候聊天也能比我厉害呢?什么时候采访你的会是手机而不是我?
  RK:我们的确有可以进行会话的技术。你知道,我在Google的团队做出了智能回复。我们写了数百万封电子邮件。它必须要理解要回复的邮件是什么意思,哪怕提议是很简要的。不过你的问题其实相当于图灵测试。没有简单的自然语言处理技巧可以做这个。如果人类无从判断出区别我们就认为AI相当于人类智能,你问的其实就是这个。这是我的一个关键预测。我一直都只讲2029年的事情。1989年,在《智能机器时代》中,我把实现这个的时间界定在2020年代初期到2030年代末期之间;在1999年的《精神机器时代》中,我把时间进一步明确到2029年。斯坦福的AI部门认为这个时间令人望而却步,于是他们举办了一场会议,AI专家的共识是这个时间需要好几百年。25%的人认为这永远也不会发生。我的观点,以及AI专家一致的中位数观点已经变得越来越接近了,但这并不是因为我改变了看法。
  2006年的时候,在Dartmouth举办了一场会议,名字叫做AI@50。大家的共识是50年;我当时说还要23年。我们还在Asilomar举行了一次AI伦理会议,大家的共识是大约要20到30年,我当时说要13年。我们仍然是更加乐观的那个,但距离已经没那么大了,而且有越来越多的人认为我太保守了。
  加速回报定律的一个关键问题我没有提到:呈指数增长的不仅只有硬件,还包括软件。我感觉越来越有信心,对于我们距离那个里程碑已经不太远这一点,我认为AI社区正在获得信心。
  我们即将跟那个技术,跟AI融为一体,让我们变得更加聪明。事实上已经如此。这些设备是大脑的延伸,大家也是这么认为的,这是个新东西。仅仅几年前大家还没有这么看自己的智能手机。它们会进入到我们的身体和大脑,但我认为这种区分是武断的。就算它们是在我们身体和大脑之外,也已经是大脑的延伸了,而且还会让我们更聪明更有趣。
  NT:你把这个框架跟政策制定者解释一下,告诉他们应该如何思考这一加速技术,他们应该做什么,不应做什么。
  RK:对AI伦理、如何保证这项技术的安全的关注很多,就像当今的很多讨论一样,这方面的讨论两极分化也很严重。实际上有关它的希望和危险我都讨论过很久了。技术永远都是一把双刃剑。火能让我们暖和,帮我们把食物煮熟,也能烧毁我们的房子。相比之下这些技术要强大得多。这个问题讨论起来要很久,但我认为我们应该把它分成3个阶段,至少我在思考的时候是这么样的。首先是对有机会克服由来已久的贫困、疾病等折磨而感到高兴。然后是警惕这些技术可能会具有毁灭性,甚至导致生存危机风险。最后我认为我们需要认识到对于推进这些技术要有道德紧迫感,因为尽管我们已经取得了这些进展,大家却认为情况在变得更加糟糕,但其实情况实在变好,不过我们还有很多的人类苦难有待克服。我们在关注危机的同时,唯有继续进步尤其是AI方面的进步才能让我们继续克服贫困和疾病以及环境恶化问题。
  有一个好的框架可以做这件事。40年前,有一群愿景家既看到了生物科技的前途也看到了它的风险,基本上他们做的事情相当于对生物进行重组让其远离疾病和衰老。为此他们在Asilomar(阿西洛马)会议中心举办了一场会议,也就是著名的阿西洛马会议。会议讨论了道德指南和策略——即如何保证这些技术的安全。现在,40年已经过去了。我们正在受到生物科技的临床影响。在今天这种影响还是涓涓细流,但未来10年会将会变成洪水滔天。迄今为止因为有意或无意滥用生物科技而受到伤害的人数为0。在如何处理推进方面这是一个很好的模式。
  我们刚刚召开了AI伦理方面的阿西洛马会议。很多这些道德指南,尤其是生物科技方面的道德之南,已经被编撰成法律。所以我想这就是目标。第一件要理解的事情是这个。极端主义者的想法不是“禁止这项技术”就是“得把节奏放慢。”这其实不是正确的做法。我们应该用建设性的方式去引导它。这是有策略的,但很复杂,需要另行讨论。
  NT:你可以想象一些规则,比方说国会可以要求从事特定技术的人必须开放数据,护着必须愿意分享该数据集,并且至少对这些极其强大的工具允许市场竞争。你可以想象政府说:“其实应该要有一个大的政府资助的选项,有点像OpenAI,但是应该由政府运营。”你可以想象有一股庞大的全国性的基础设施运动来开发这一技术,这样至少对公共利益很在意的人能够控制其中的一点。你的建议如何呢?
  RK:我认为开源数据和算法总的来说是个好的想法。Google把所有的AI算法都通过TensorFlow开源了。我认为开源和持续立法的加速回报可以让我们越来越接近理想。问题有很多,比如隐私问题就很难处理,我认为做这一行的人通常都很关心这些问题。只是现在还不清楚正确的答案。我认为我们希望继续推进,但当你权力如此之大时,哪怕意愿是好的也会有滥用的可能。
  NT:你担心什么?你对未来的看法是非常乐观的。但是你担心什么呢?
  RT:我作为一名乐观主义者而受到指责,但是作为创业者你必须是乐观主义者,因为如果你了解所有会碰到的问题的话大概就不想去做任何项目了。但我对这里面不好的地方是很关心的,并且也一直在写,这些问题都是跟生死存亡相关的。这些技术非常强大,所以我的确很担心,即便我是乐观主义者。但我对我们能够通过这一关是乐观的。在不会遭遇困难局面的事情上我并不乐观。二战期间,有5000万人死亡,当时技术肯定加重了这个悲剧。但我认为大家意识到我们正在取得进展是很重要的。最近对26个国家的24000人进行了调查。调查问到了“全球的贫困是恶化还是好转?”的问题。90%的人都回答说变糟了,这是不正确的。只有1%的人正确回答出贫困率已经下降了50%甚至更多。
  NT:观众里面的人应该如何应对自己的职业?他们即将步入一个有着全新技术的世界,这帮人应该作何职业选择?你的建议是什么样的。
  RK:这个建议其实是老生常谈的一个建议,那就是做你所爱,因为其实没有一个领域不会受到影响或者不是这个故事的一部分。我们即将跟云端的模拟大脑新皮质融为一体。它将会增强我们。其实已经是这样了。没有我们现在手头的这些大脑延伸的话谁还能做好自己的工作。情况还将继续如此。大家说:“好吧,只有有钱Kaiyun官方网站app登录 能拥有那些工具。”但我要说:“是,像智能手机这样的全球就有30亿。”再过几年会变成60亿。这是奇妙的性价比爆发的作用。所以去找到你热爱的东西。一些人的爱好比较复杂难以归类,所以你要想办法在你认为可以产生影响的地方对这个世界作出贡献。利用现有的工具。我想出加速回报定律的原因正是为了提前规划我自己的项目好让我能够在它变得可行之前提前几年做好准备——去尝试和预测技术的发展方向。大家忘了我们是从哪儿来的。仅仅几年前,我们还只有一点看起来像智能手机这样的设备,但用得不是很好。那场革命,还有移动app,5年前还几乎没有。也就是说,5的时间这个世界就变得很不一样了,所以你得未雨绸缪,为火车到站做好准备。”
  观众提问:对人性的可爱一面,对科学和探索方面已经有了太多的强调,我感到好奇的是朝着我们的机器人伙伴的动向。其中的黑暗面是什么?关于战争以及机器战争和暴力你怎么看?
  RK:关于这些平台如何被用来放大人类倾向以及被操控我们已经有很多了解了,而且有很多是我们最近才了解到的信息。AI是从例子中学习的。这个领域有句格言叫做生命从第10亿个例子开始,而获得例子的最好办法是向人类学习,所以AI经常向人学习。但不总是如此。AlphaGo Zero就是自己跟自己下学会围棋的,但这种做法未必总是可行,尤其是当你在处理更加复杂的现实世界的问题时。目前业界,包括所有的主流公司和开源界正在进行一项重大努力,那就是对AI去偏见,因为如果AI向人学习的话,人是有偏见的,这样一来AI也会带有偏见,我们必须克服性别和种族偏见。这其实可以是个目标。作为人,我们从看到的所有东西中产生偏见,其中很多都是下意识的。然后作为受过良好教育的人,我们开始学习,去认识到自己的偏见并试图克服偏见,我们自己的内心可能会发生冲突。AI去偏见已经发展成一个独立的研究领域。这一类研究可以克服机器智能的问题。通过这些手段,机器智能其实可以比所效仿的人类没那么多的偏见。尽管社交媒体对它的看法喜忧参半纠缠不清,但总体而言AI是非常有益的东西。我在机场走路的是总能看到每个2岁以上的孩子手里都拿着电子设备。这已经成为了一个世界社区,我认为现在正在成长的这一代人比以往任何一代人都要更强烈地感受到自己是世界公民,因为其实他们在接触世界的各种文化。
  NT:但是美国去年的气氛却不是跟世界走得越来越近。这种情况是人类走到一起的持续发展进程中的一个短暂性现象吗?还是说很多人都误解了?
  RK:美国以及其他地方政治的两级分化是不幸的。对于我们今天正在讨论的那些事来说我并不认为这是个问题。我的意思是说这个世界有过重大的暂时失常。二战就是一次相当大的中断,但其实根本没有影响到这些趋势。对于特定的人和机构我们也许有不喜欢的东西。但是这是可以讨论的,你可以有你的声音和观点。目前我还没有看到情况朝着不好的方向发展。我们讨论的这类(AI)问题其实并没有受到这些问题的影响。但是我担心人类的生存危机问题,因为技术是把双刃剑。
  观众提问:我的问题跟不平等有关。大多数人类历史的很多阶段的经济不平等性都是相当高的。你认为这方面20世纪是否属于反常?技术额扩散又会如何影响到这种不平等?
  RK:经济平等其实是在变好的。据世界银行的数据,过去20年亚洲的贫困已经下降了90%。那些国家已经从原始农业经济发展成欣欣向荣的信息经济。非洲和南美的增长率要比发达世界高得多。不管你从哪一个时间片段去看都会存在不平等,但情况正在飞速朝着正确的方向发展。过去20年全球的贫困已经下降了50%。而且还有很多其他的措施。大家说“数字鸿沟”,但其实没有。互联网、智能手机在非洲也非常强。这只是在过去几年才发生的变化。所以我们正在朝着正确的方向前进。任何一个时候都会有不平等的现象,会有人受苦,但数量正在朝着正确的方向发展。
  观众问题:从你的评论看你预计通用人工智能再过12年就将变成现实,你还好几次提到尽管自己是乐观的但多少对生存危机感到担心,你能不能详细解释一下这究竟是什么意思?为了降低这种风险,你认为技术专家应该做的最重要的一件事是什么。
  RK:生存危机的意思是说威胁到我们文明生存的风险。人类面临的第一个生存危机是核扩散。我们过去曾经有过几次摧毁整个人类的能力。现在有了这些新技术,不难设想这些技术被利用来毁灭整个人类的场景。比方说生物科技。我们已经有能力对生物进行重组让它远离疾病。免疫疗法,这是癌症治疗非常令人兴奋的突破——我认为这是相当革命性的,现在才刚刚开始——免疫疗法对免疫系统进行了重组,让它跟踪癌症,而在通常免疫系统是不会这么干的。但生物恐怖分子也可以利用重组技术把一种病毒变得更加致命,传染性更强,更加隐蔽,把它制造成超级武器。这是萦绕在40年前阿西洛马会议上的一个幽灵。后来不断有类似的会议让这些道德指南和安全协议和策略变得越来越复杂,迄今为止这些做法是有效的。但是我们也在让技术变得越来越复杂,所以那些指南也要不断修订。我们刚刚召开了AI伦理的第一次阿西洛马会议。我们想出了一批大家都赞同的道德标准。其中有很多是比较含糊的。对于那些我们需要赋予高优先级着重考虑。我们发现必须给软件植入伦理价值观。典型的例子是无人车。做无人车的全部动机在于它可以把人类司机导致的每年200万的死亡数减少99%,但无人车会陷入到被迫做出伦理决断的情况:它应该驶向婴儿车还是那对老年夫妇或者是撞墙可能导致乘客死亡?你有没有那么一条道德指南指出不要杀死拥有该无人车的乘客?这种情况下不能发邮件给软件设计师问“我该怎么办?”吧。规则得内置到软件里面。所以这都是一些实际问题,围绕着这个问题会衍生出一整个AI伦理。
  但还有一个风险更高的生存危机:AI武器化,这已经不是未来的事情了。全世界的国防部都在应用AI。现在有人正在到处找人同意禁止自动化武器,这听起来像是个不错的主意,他们举的例子是“我们都禁止了化学武器了,所以为什么不取缔自动AI武器呢?”不过AI的情况稍微有点复杂,因为没有炭疽和天花我们能活下去。取缔这些是没问题的。但自动武器是军民两用技术。运输冷冻食品或者药物到非洲医院的Amazon无人机也可以用来运送武器。它们用的是同样的技术,这有点像已经脱缰之马一样。所以说这个问题更加复杂,要考虑好如何处置。但目标是保留希望控制风险。没有简单的算法。我们不会有简单的子程序可以放进AI里面,告诉它们说“OK,把这个子程序放进去。我会让你的AI保持良性。”智能天生就是不受控制的。我的策略尽管不是万无一失但也应该行得通,那就是在我们自己的人类社会践行那些我们希望看到的伦理道德。因为未来社会不是火星的智能机器入侵地球。未来诞生自我们现在的文明。未来将会是我们自身的增强。所以如果我们践行今天所珍视的这种价值观的话,那就是未来拥有一个体现这些价值观的世界的最佳策略。
声明:凡开云电子链接 来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与开云客户(www.www.wykobounce.com)联系,本网站将迅速给您回应并做处理。
电话:021-39553798-8007
更多> 相关专题
0 相关评论

推荐图文
推荐专题
点击排行
Baidu
map