目前,Google的TensorFlow作为开源框架被互联网广泛使用,据官方介绍,谷歌、ebay、airbnb、twitter、uber、小米、中兴等公司均有使用。在TensorFlow中,AI研究者可以复用他人建好的模型来进行AI训练,或直接提供AI服务,大大提高开发效率。
据了解,这些公开的模型通常以文件形式提供,也普遍被认为是无害的。但腾讯安全平台部预研团队发现,攻击者可以生成Tensorflow的恶意模型文件,对AI研究者进行攻击,对受害者自身的AI
应用进行窃取或篡改、破坏。
该风险危害面非常大,一方面攻击成本低,普通攻击者即可实施攻击;另一方面迷惑性强,大部分AI研究者可能毫无防备;同时因为利用了TensorFlow自身的机制,其在PC端和移动端的最新版本均会受到影响。AI模型被窃取,损失的是开发者的心血;而一旦被篡改,造成AI失控,后果更难以想象。
此前,AI已有不少实际应用案例,例如深圳试运行的无人驾驶公交、国际会议的AI同声传译;未来更会渗透到社会的方方面面:交通、医疗、安防、金融……在不远的未来,AI安全会直接影响人们的生命财产安全,甚至整个世界的秩序。如
电影《复仇者联盟:奥创世纪》那样,终极人工智能奥创为人们的生活提供了无数便利,但当他站到人类的对立面时,也会带来无数灾难甚至毁灭。
据悉,腾讯安全平台部安全预研团队已就此次发现的安全风险向谷歌提交报告,协助风险早日收敛。该团队不仅聚焦AI、移动及IoT前沿领域的安全问题研究,同时也向google,apple,微软,adobe等公司报告多个安全漏洞并多次获得官方致谢。此外,他们对无人机、无线电、物联网、智能楼宇的安全问题也有研究。