大会期间,在瑞莱智慧的展台上,一件“隐身衣”的展示吸引了大量观众驻足。正常情况下,目标对象只要站在摄像头前面,就会被实时检测出来,但瑞莱智慧团队基于领先的对抗攻防技术开发了一款“隐身衣”,通过在衣服上印刷特定的对抗图案,就能够使检测算法出错,普通人一旦穿上,便可以逃避检测系统的追踪,实现“隐身逃逸”。
究其原理,瑞莱智慧合伙人、高级副总裁朱萌表示,这是由于当前以数据驱动的深度学习,其本质是利用“黑箱”处理方法寻找规律,存在不可解释、不可靠等结构性缺陷,将导致不可预知的恶意攻击,比如通过在输入数据中添加扰动,即可使系统作出错误判断。
除了“隐身衣”,类似的攻防还可以延伸到更多识别场景:在自动驾驶场景中,通过修改锥桶的形状,就能让汽车感知模块失效,径直撞上去;通过制作带有特制花纹的眼镜,刷开数十部商用手机的人脸解锁等。
围绕“高水平安全赋能高质量发展”目标,朱萌提出人工智能安全能力建设“三部曲”,首先是,发掘现有AI安全风险、预判AI潜在风险;二是针对风险建设治理体系,包括建立AI治理理论、构建治理运转机制、探索技术实践路径等;三是在治理体系框架下,重点探寻伦理法规的技术落地方案。
瑞莱智慧合伙人、高级副总裁朱萌(央广网发受访者供图)
“人工智能当前的安全风险主要可以从‘系统’与‘人’两个视角来剖析。”朱萌认为,系统层面来看,以深度学习算法为核心的人工智能系统十分脆弱,其结构性漏洞致使“对抗样本攻击”不可避免,而其数据依赖性则使其存在“数据投毒”漏洞,出现“后门攻击”。从“人”的层面来评估AI的可信问题,主要风险来自人的滥用、恶意
应用,最为典型的就是深度合成技术。它大幅降低了信息生成合成的难度,但其负向应用已产生实质危害,甚至存在“武器化”风险。
针对上述风险,瑞莱智慧于今年6月成立了人工智能治理研究院,探寻从伦理法规到技术落地的人工智能治理实践之路,主要开展四个方面工作:参与伦理规则建立、支撑立法工作、开展技术探索、建立从伦理法规到技术实践的映射模型。