如今,即使是像自动驾驶汽车那样用有功能算力的智能系统,也可能被蒙骗,以至于把胡乱的涂鸦误以为是火车、栅栏或校车。
人们普遍认为,人们无法理解计算机怎么会被那些图像骗过的,但在一项新的研究中,约翰霍普金斯大学的研究人员发现,实际上同样的图像很多人看到的跟计算机并无二致。
这些发现表明,现代计算机可能并没有我们想象的那么不同于人类,同时也说明人工智能的进步正在不断缩小人类与机器在视觉能力上的差距。这项研究最近发表在《自然通讯》科学杂志上。
“大多数时候,我们这个领域的研究都是关于使得计算机像人一样思考,”资深作者、约翰霍普金斯大学心理和脑科学系助理教授查兹·费尔斯通(Chaz Firestone)说道,“我们的项目则恰恰相反——我们在问人们是否能像计算机一样思考。”
四张抽象的
图片。你知道人工智能从中看出些什么吗?从左到右,计算机将上面的四张图分别误以为是数字时钟、纵横拼字谜、国王企鹅和突击步枪。
对人类来说轻而易举的事情,对计算机来说往往是棘手的。长期以来,人工智能系统在做数学计算或记忆大量信息方面一直比人类出色,但几十年来,人类在识别狗、猫、桌子或椅子等日常物体方面则一直占据优势。然而,最近,模仿大脑的“神经网络”已经接近人类识别物体的能力,从而带来了技术进步,推动自动驾驶汽车、人脸识别程序以及帮助医生发现放射扫描图像中的异常状况的人工智能系统的发展。
但即使有了这些技术进步,也存在一个关键的盲点:图像有可能被故意做手脚,使得神经网络无法正确识别。这些图片,被称为对抗性的或愚弄性的图片,是一个大问题。它们不仅可能为黑客所利用,从而造成安全风险,它们的存在也表明,同样的图像人类和机器实际上看到的东西却全然不同。
在某些情况下,只需要重新配置一两个像素,计算机就能把苹果看成车辆。在其他的情况下,对于毫无意义的电视画面,机器看到的却是犰狳或百吉饼。
“这些机器如此错误识别物体,人类则似乎绝不会那么离谱。”费尔斯通指出,“但令人惊讶的是,没有人真正检验过这一点。我们怎么知道人们看不出计算机看出的东西呢?”
四个抽象图像。计算机以为上面的图像(从左至右)分别是电吉他、非洲灰鹦鹉、草莓和孔雀。
为了检验这一点,费尔斯通和约翰霍普金斯大学认知科学专业大四学生周正龙(Zhenglong Zhou音译)让人们“像机器一样思考”。机器只有相对较小的词汇量来描述图像中的东西。因此,费尔斯通和周正龙向人们展示了几十张已经骗过计算机的图片,并给人们提供了与计算机一样的标签选项。他们问人们,在两种物体识别结果中计算机选定了哪一种——一种是计算机的真实结论,另一种是胡乱捏造的答案。图片中那团难以名状的东西是面包圈还是风车?事实证明,人们很大程度上都猜对了计算机做出的识别结果。
在75%的情况下,人们选择的答案与计算机的识别结果一致。或许更值得注意的是,98%的人倾向于像计算机那样回答问题。
接下来,研究人员更进一步,让人们在计算机最喜欢的答案和它的次优猜测之间做出选择;例如,图片中那团难以名状的东西是百吉饼还是脆饼干?人们再次验证了计算机的选择,91%的受试者选到了计算机的第一选择。
即便是研究人员让人们在48个选项中猜测图片中的物体是什么,而且这些图片看起来像静态的电视画面,绝大多数的受试者也选择了机器所选的选项。在不同的实验中,共有1800名受试者接受了测试。
“我们使用的神经网络模型可以很大程度上模仿人类的行为,但我们正在研究的现象被认为是该模型的一个关键缺陷。”认知科学与数学专业学生周正龙表示,“我们的研究能够提供证据,证明这一缺陷可能并不像人们想象的那么糟糕。它提供了一个新的视角,以及一个可以探索的新的实验范式。”
周正龙打算在认知神经科学领域追求自己的事业,他从去年年初开始与费尔斯通一起展开这项研究。他们共同设计了研究,改进了方法,并为论文做了结果分析。
“约翰霍普金斯大学为本科生提供了大量的研究机会,但不同实验室的研究经历可能有所不同,这要看导师。”他说,“我的研究经历非常宝贵。通过单独与费尔斯通博士共事,我学到了很多东西——不仅仅是关于实验设计,还有论文发表过程,以及在学术环境中进行完完整整的研究需要做些什么。”
(选自 hub 作者 Jill Rosen 编译 乐邦 )