所谓追根溯源。这里我们不妨回溯下今年比较重要或者说引起媒体和业内对于AI关注或者炒作的几个节点或者说是标志性事件,而对于这些标志性事件的解读和延展无疑会让我们看到AI的本质。
一、谷歌旗下AI公司DeepMind开发的Alpha Go神经网络在与世界围棋冠军李世石的“人机大战”中以绝对优势获胜,进而引发了业内对于AI的关注,之后AI开始频频出现在科技媒体和企业的报道中;
二、谷歌主打AI的无人驾驶汽车在路侧中出现首例事故和特斯拉的Autopilot(自动驾驶系统)频频出现的致死事故,尽管是负面的新闻,但还是激发了业内对于AI的关注,并以自动和无人驾驶汽车的热炒体现出来;
三、是亚马逊装有Alex语音识别技术的Echo音箱所谓的畅销以及有“互联网女皇”之称的 Mary Meeker 发布 2016 年度网络趋势报告时对于Echo以及AI的热捧和向好的预测;
四、美国总统大选中名为MogIA的人工智能系统成功预测出川普将成为美国总统;
五、是图形芯片公司或者说是其自己标榜为人工智能公司的英伟达股价的暴涨。
2016说了一整年的AI 实际上还只停留在“识别智能”
首先我们看下Alpha Go在围棋中战胜李世石究竟依靠的是什么?其实对于计算机与人类在棋类的博弈,早在1997年计算机首次击败了等级分排名世界第一的棋手。加里?卡斯帕罗夫以2.5:3.5 1胜2负3平)输给IBM的计算机程序“深蓝”,当时全球媒体和高科技界都惊呼标志着人工智能进入了新时代。
此前1988年,“深蓝”的上一代“深思”是第一个赢过国际象棋特级大师的电脑;1996年,“深蓝”成了第一个赢了国际象棋世界冠军的电脑。需要说明的是。深蓝重1270公斤,有32个大脑(微处理器),每秒钟可以计算2亿步,输入了一百多年来优秀棋手的对局两百多万局。
相比之下,AlphaGo最初通过模仿人类玩家,尝试匹配职业棋手的过往棋局,其数据库中约含3000万步棋,计算能力是当初“深蓝”的3万倍。这里我们看到的与“深蓝”相比最大的不同是AlphaGo在数据和计算能力上的优势。
在此也许有人会说AlphaGo赢在其庞大复杂的神经网络,但根据Tian yuandong和AlphaGo的论文,如果不做任何搜索(实际上考验的是计算能力),只是根据“棋感”(其实就是估值函数),CNN(神经网络)最好能达到KGS 3d的水平,也就是业余1段的水平。
而MCTS算法在没有Value Network的情况下在9x9的棋盘上能战胜人类高手,其实印证了AlphaGo在残局的实力是搜索(计算)起重要作用,也就是残局的计算能力碾压人类。但众所周知的事实是,计算机的计算能力远强于人类早已经是常识。
对此,微软亚洲研究院常务副院长芮勇在评价AlphaGo时曾对媒体表示:
“今天所有的人工智能几乎都是来自于人类过去的大数据,没有任何一个领域的能力源自自我意识,不管是象棋还是围棋,计算机都是从人类过去的棋谱中学习。其他领域也是类似,计算机在做图像识别的时候,也是从人类已有的大数据中学习了大量的
图片。
在面对人类从来没有教过的问题时,计算机就会一窍不通。假如让 AlphaGo 去下跳棋,它就会完全傻掉。甚至说把围棋的棋盘稍作修改,从 19×19 的格子变成 21×21 的格子,AlphaGo 都招架不住,但是人类就没有问题。”
牛津英语词典对智能(intelligence)的定义为“获取并
应用知识的能力”。以数字经济麻省理工学院(MIT)数字经济倡议的研究员兼AI意见领袖汤姆?达文波特(Tom Davenport)的话来说:“深度学习并不是深刻的学习。”
另一位专家奥伦?埃佐尼(Allen Institute of AI)也有类似意见:“AI只是简单的数学的大规模执行。”简单说,现在的AI实质只是一种强大的计算方式,并没有达到人脑那种堪称智能的方式。
而花了15年的时间在IBM研究院和IBM Watson团队工作的专家Michelle Zhou,作为该领域的专家,其将AI分为三个阶段。
第一个阶段是识别智能,在更加强大的计算机里运行的算法能从大量文本中识别模式和获取主题,甚至能从几个句子获取整个文章的意义;第二个阶段是认知智能,机器已经超越模式识别,而且开始从数据中做出推论;第三个阶段的实现要等到我们能创建像人类一样思考、行动的虚拟人类才行。
而我们现在只处于第一阶段,“识别智能”,也就是说,人们说的“人工智能”里面有很大一部分其实是数据分析,还是原来的套路或者说是“旧瓶装新酒”而已。
无独有偶,如果说上述AlphaGo最终还是依靠强大的计算能力体现出所谓AI优势的话,那么接下来我们要说的谷歌和特斯拉的自动和无人驾驶汽车则在简单的数据分析上都出现了偏差。
最典型的表现就是此前一直被吹捧的谷歌无人驾驶汽车,今年在时速低于2英里的情况下竟然发生了交通事故,且按责任划分当属谷歌。
如果我们拿当时谷歌无人驾驶汽车发生事故时的选择和结果与此次人机大战中的每步棋的选择与结果比较的话,对于AI(例如AlphaGo)来说,前者不知道要容易多少倍(谷歌无人驾驶系统比人类最大的优势就是预判对方的行为,并做出应对)。
可惜的是,谷歌无人驾驶汽车在这次事故中体现出了智能系统没能完全判断准确人类的行为,还做出了最令人失望,可能也是最有悖于人类驾驶员的选择,并最终导致事故的发生。
至于特斯拉,在今年屡屡发生事故之后,其升级了到了Autopilot 2.0系统,并发布了第二段自动驾驶技术的演示
视频。
官方声称 Autopilot 2.0 系统的硬件得到了相当巨大的提升,环车共配备 8 个摄像头,达到 360 度全车范围覆盖,最远检测可达 250 米。另外搭载了 12 个超声波传感器用于视觉系统的补充,对物体的距离、软硬精准度有更大的提升。
增强版的前置雷达可以穿越雨、雾、尘环境,丰富视觉系统的探测数据。特别是里面集成了 Nvidia PX2 处理芯片,运算能力比起第一代自动驾驶系统要高 40 倍。
尽管如此,通过
视频分析中出现的诸如无论有没有来往车,每一次需要转弯时都会停下来再继续转弯;逼停了了一辆正常行驶的白色小车以及在完成一次转弯之后,突然无缘无故自动刹车等诸多问题看,Autopilot 2.0依然没有逃出计算能力和大数据简单分析结果呈现的范畴,并非真正的AI系统。
提及亚马逊的Echo,其实就是语音搜索和识别,而提及此领域,苹果的Siri、微软的Cortana或Google Now早就与智能手机绑定,但我们看到更多的实际应用场景是人们经常以搞笑的方式误听或者误解语音指令。
关于语音搜索,谷歌依然在致力于克服诸如语音识别、自然语言理解、对话理解的挑战上,而这些挑战早在3年前就已经存在。而从亚马逊Echo的诸如语音查询天气或新闻、播放 Spotify 音乐、预约 Uber 叫车、订购披萨外送等应用看,这些在手机上早已实现,其有别于手机的AI特性究竟体现在哪里呢?
相反,尽管语音识别已经取得了长足进步,但多数人仍会沿用手势操作和触摸界面。在可预见的未来,这种趋势恐怕难以改变。究其原因,主要在于语音识别服务需要依赖庞大的数据和具有捕捉自然状态下的真实对话的能力才是真正的AI。
所以尽管在语音识别上,有些厂商称其识别率已经实现90%以上,但基于自然状态下真实对话的能力要求,就算是95%的准确率也不足以满足人们的需求。而在被问及何时才能通过自然语言与数字助理交流,并得到满意的答案时,即便是对最高水平的神经网络学家而言,这项技术仍然有很多谜团有待解开。
有很多工作只能通过不断试错来改进,没有人敢保证某项技术调整可能产生什么样的后果。根据现有的技术和方法,这一过程大约要耗费数年时间,甚至有专家称,我们永远无法知道何时能够实现突破,何时能让Alexa和Siri与人类展开真正的对话。
可见,即便是今年被热捧的亚马逊Echo也并非真正的AI,只是其在特定环境下(例如室内和特定的数据库)的表现强于相应的对手而已。
至于AI在美国总统大选中的预测,我们这里暂且不说那些预测失败的所谓AI系统,仅就成功预测大选结果的MogIA系统,其公司创始人Rai也承认,目前AI系统对“讽刺表达”、“反话”的识别能力有限,网民们的言论可能被系统错误解读。
比如,即使特朗普的Twitter账号下有大量的网民互动,也不代表这部分网民倾向于支持特朗普,但相关话题的活跃度会被AI系统归入民意预测依据看,其根本具备真正的AI能力,其侥幸猜中的成分很大。
其实纵观此次美国总统大选的AI预测之战,无论是赢家还是输家,其背后反映出的AI在数据和算法上均存在或主观或客观的缺陷,并导致最终的结果也存在相当偶然的因素,
最后看以AI名义股价暴涨的英伟达。我们先看看最新季度英伟达的财报表现。
总营收20亿美元,同比增长53.6%。其中图形芯片部门的营收在其总营收中占比85%,同比增长52.9%,为17亿美元;数据中心业务同比增长两倍,为2.4亿美元;汽车业务同比增长60.8%,为1.27亿美元。
从营收的构成上,不难看出,支撑英伟达的核心业务依旧是传统PC市场的图形芯片(独立显卡),而涉及到AI相关领域或者是与AI密切相关(例如数据中心)业务的营收仅占到其总营收的1/10左右。所以仅从营收看,英伟达远称不上是一家AI芯片公司。
至于所谓与AI相关的收入,无非是诸如谷歌、微软、特斯拉这些主打AI概念的公司需要计算能力更为强大的芯片而已。而英伟达的GPU(图形芯片)恰好满足了这种强计算能力的需求。
此外,从英伟达爆发的与英特尔在所谓AI芯片谁强谁劣的口水战中,双方均强调或者说惟一强调的核心依然是在计算能力上看,所谓的AI能力只是双方计算能力上的一种博弈而已,与AI似乎没有任何的关联。
综上所述,通过今年与AI相关的重要节点和事件看,其实所谓的AI依旧是计算能力和大数据简单分析输出的一种深化,尽管各家都打着AI的名义,但按照真正AI的定义和应用场景看,不要说实现真正的AI,就连基本的计算能力、大数据分析和输出上都存在不足,甚至是误判。