参考消息网2月22日报道英国《金融时报》网站1月25日刊登题为《生成式人工智能:机器学习的新时代将如何影响你?》的文章,作者是理查德·沃特斯。内容编译如下:
就在10多年前,三名人工智能研究者取得了一项永久改变这个领域的突破。
他们用在世界各地拍摄的120万张图像来训练“AlexNet”系统,使其能够识别从集装箱船到豹子等各种物体,准确性远高于以往的计算机。
这一壮举不仅帮助三名研究者赢得了图像网大规模视觉识别挑战赛(ImageNet)的年度竞赛,还展示了机器学习的潜力,并在科技界引发一场将人工智能引入主流的竞赛。
人工智能竞赛白热化
从那时起,计算机的人工智能时代基本上在幕后形成。机器学习是一项涉及计算机从数据中学习的基础技术,已广泛
应用于识别信用卡欺诈、提高在线内容和广告相关性等领域。如果说
机器人开始要抢走所有的工作,那基本上是在人们看不到的地方发生的。
直到现在,人工智能领域的另一项突破刚刚撼动了科技界。这一次,机器在人们看得到的地方运行——或许它们终于准备好兑现取代数百万个工作岗位的“威胁”。
去年11月底,问答和文本生成系统ChatGPT以一种在科幻小说之外罕见的方式,闯入公众视野。该系统由总部位于旧金山的开放人工智能研究中心(OpenAI)研发,可根据指令生成内容,在新一波所谓“生成式”人工智能系统中最为引人注目。
如果你在ChatGPT中输入要查询的信息,它会用一个简短的段落给出答案和一些背景信息。例如,你问它谁赢得了美国2020年总统大选,它会列出结果并告诉你乔·拜登何时就职。
ChatGPT简单易用,能瞬间给出答案,就像人类在回答。该系统有望将人工智能引入日常生活。有消息称,微软公司已对开放人工智能研究中心投资数十亿美元,这几乎证实了,这项技术将在人工智能革命的下一阶段发挥核心作用。
ChatGPT是一系列日益引人注目的人工智能公开展示的最新一个。开放人工智能研究中心的另一个系统——自动书写系统GPT-3,在2020年年中发布时震惊了科技界。其他公司紧随其后推出了所谓的“大型语言模型”。去年,该领域扩展到图像生成,开放人工智能研究中心的系统Dall-E2、“稳定”人工智能公司(StabilityAI)的开源系统StableDiffusion以及Midjourney系统纷纷问世。
这些突破引发人们争相寻找人工智能的新应用。
如果计算机能够写作和生成图像,那么在正确的数据训练下,还有什么是它们无法生成的吗?谷歌展示了两个实验性系统,可以根据简单提示生成
视频,还有一个可以回答数学问题。“稳定”人工智能等公司已将这项技术应用于音乐。
这项技术还可用于向软件开发人员建议新的代码行,甚至整个程序。制药公司梦想着用它以更有针对性的方式研制新药。美国生物技术企业阿布西公司本月表示,它已利用人工智能设计出新抗体。该公司表示,这可将一种药物进入临床试验所需时间从四年缩短两年多。
但随着科技行业竞相将这项新技术呈现给全球受众,我们需要考虑它可能产生深远的社会影响。
例如,让ChatGPT以12岁孩子的口吻写一篇关于滑铁卢战役的文章,你就能得到按需交付的小学生家庭作业。更严重的是,人工智能有可能被故意用来生成大量虚假信息,它还可能自动完成大量工作,远不止最明显受冲击的创造性工作。
微软人工智能平台负责人埃里克·博伊德说:“这些模型将改变人与电脑互动的方式。”它们将“以一种前所未有的方式理解你的意图,并将其转化为计算机行为”。他还说,因此它将成为一项基础技术,“涉及现在几乎所有的东西”。
谷歌研究科技对社会影响的高级副总裁詹姆斯·马尼卡表示,对任何需要在工作中提出新想法的人来说,这类系统的输出可以“打破思维禁锢”。内置在日常软件工具中,它们可以提出想法、检查工作,甚至生成大量内容。
信息可靠性难以保证
然而,尽管生成式人工智能易于使用,并有可能颠覆大部分技术领域,但对于构建它并试图将它应用于实践的公司,以及许多可能不久就会在工作或个人生活中遇到它的人来说,它带来了巨大的挑战。
最重要的是可靠性问题。计算机可能给出听起来可信的答案,但不可能完全相信它们说的话。它们通过研究海量数据,根据概率假设做出最佳猜测,但并没有真正理解数据产生的结果。
圣菲研究所教授梅拉妮·米切尔表示:“它们对单个对话之外的事情一无所知,它们无法了解你,也不知道词语在现实世界中意味着什么。”它们只是对任何提示给出大量听起来有说服力的答案,它们是聪明但无脑的模仿者,无法保证它们的输出只是数字幻觉。
此前已有图像展示说明,这项技术可以产生听起来可信但不值得信任的结果。
例如,去年年底,脸书的母公司元宇宙平台公司展示了名为Galactica的生成系统,该系统接受了学术论文的训练。很快人们发现,该系统可根据要求发布听起来可信但实际上虚假的研究,导致脸书不得不在几天后撤回了该系统。
ChatGPT的研发者承认了这些缺点。开放人工智能研究中心表示,该系统有时会给出“无厘头”的答案,因为在训练人工智能方面,“目前没有任何真相来源”;而且,所谓的“监督式学习”(即由人类直接训练、而不是让人工智能自己学习)并不奏效,因为系统往往比人类老师更善于找到“理想答案”。
一种潜在的解决方案是,在生成系统的结果发布之前提交感官检查。马尼卡说,谷歌在2021年公布了实验性的LaMDA系统,该系统能对每个提示作出约20种不同的响应,然后评估每种响应的“安全性、毒性和合理性”。
然而,斯坦福大学计算机科学副教授珀西·梁(音)表示,任何依赖人类来验证人工智能输出结果的系统都会引出自己的问题。他说,这可能会教会人工智能如何“生成有欺骗性但貌似可信的东西,愚弄人类”。他说:“事实是,真相如此扑朔迷离,而人类并不擅长于此,这可能令人担忧。”
这项技术的支持者说,有一些实用的方法可以利用它,而不必试图回答这些更深层次的哲学问题。由微软联合创始人保罗·艾伦创立的人工智能研究所A12的顾问兼董事会成员奥伦·埃齐奥尼表示,就像互联网搜索引擎既能提供有用的结果,也能提供错误的信息一样,人们将设法最大限度地利用这些系统。
但让人类事后批评机器也许并不总是答案。研究人工智能应用的科技行业组织“人工智能合作组织”的首席执行官丽贝卡·芬利表示,在专业环境中使用机器学习系统已经表明,人们“过于相信人工智能系统和模型作出的预测”。
她还说,问题在于,人们倾向于“在与这些模型互动时,灌输人之所以为人的不同方面”,这意味着,他们忘记了系统并没有真正“理解”他们所说的话。
信任和可靠性问题使这项技术有可能被坏人滥用。对任何有意误导的人来说,这些机器可能成为虚假信息工厂,能够生产大量内容,淹没社交媒体和其他渠道。它们可能还会模仿特定人物的写作风格或说话声音。埃齐奥尼说:“制造虚假内容将非常容易、廉价和广泛。”
“稳定”人工智能公司负责人伊马德·莫斯塔克说,这是人工智能固有的问题。他说:“这是一种人们可以道德或不道德地、合法或非法地、遵循或不遵循伦理使用的手段。”他说,“坏人已经拥有先进的人工智能”,唯一的防御措施就是尽可能广泛地推广这项技术,并对所有人开放。
受威胁工作岗位增多
生成式人工智能的兴起也引发了有关人工智能和自动化对就业影响的新一轮大讨论:机器会取代工人,还是通过接管工作的常规部分,提高现有工人的生产力并增强他们的成就感?
最明显的是,涉及大量设计或写作内容的工作面临风险。去年夏末,StabilityDiffusion系统的问世令商业艺术和设计界不寒而栗,因为它能根据提示即时生成图像。
一些科技公司已经在尝试将这项技术应用于广告,包括攀登人工智能公司(ScaleAI),该公司已经在训练人工智能模型生成广告图像。
这可能会威胁到任何内容创造者的生计。莫斯塔克说:“它彻底改变了整个媒体行业。世界上每一个主要内容提供商都认为,他们需要一个元宇宙策略:他们需要一个生成媒体策略。”
据一些可能被人工智能取代的职业人士说,这不仅仅是薪酬问题。当歌手兼词曲作者尼克·凯夫听到ChatGPT写的歌就像自己写的时,他惊呆了。他在网上写道:“歌曲孕育于痛苦,我的意思是,它们基于人类复杂的、内在的创作斗争,而据我所知,算法是没有感觉的。数据不会痛苦。”
技术乐观主义者认为,科技会放大而不是取代人类的创造力。斯坦福大学的珀西·梁说,有了人工智能图像生成器,设计师可能变得“更加雄心勃勃”。他说:“你可以创建完整的
视频或全新的系列,而不仅仅是单个图像。”
版权制度最终可能发挥重要作用。应用这项技术的公司声称,由于美国法律允许有限使用受版权保护的材料(即“合理使用”),它们可以自由地利用所有可用数据来训练自己的系统。
其他人则不同意这种观点。上周,盖帝图像公司和三名艺术家在美国和英国对“稳定”人工智能等公司提起诉讼,这是首个针对人工智能公司肆意使用受版权保护图像来训练其系统的法律诉讼。
人工智能公司的代理律师表示,该领域的每个人都已经为不可避免的诉讼做好准备,这些诉讼将制定基本规则。对科技行业来说,围绕数据在训练人工智能方面作用的争论,可能会变得与智能手机时代初期的专利战一样重要。