近年来,人工智能系统在发展和
应用中暴露出大量安全问题。陈左宁表示,人工智能之所以会引发安全问题,主要是因为其具有学习能力,可以自主决策、自主行动。具体而言,人工智能系统中广泛应用机器学习的三个重要属性是形成安全问题的基本原因,如机器学习的可理解性和可解释性问题、鲁棒性问题,以及目标函数或奖励函数描述的不完备性问题。
她认为可以从两个角度对人工智能的安全问题进行分类。从广义上讲,人工智能安全问题包含人工智能系统作为一种人造系统(工程的系统或信息系统)的安全性问题,即人工智能技术的应用造成的经济和文化的、法律和伦理的、国家和社会的安全问题,以及由于人工智能系统具有思维和自我发展能力而可能形成的对人类整体的安全威胁。
此外,人工智能安全问题还可以分为内生安全问题和衍生安全问题。前者是指人工智能系统本身由于设计、制造、使用环境或受到攻击所产生的安全问题;后者则是指由于人工智能技术的应用而衍生出来的对其他系统安全性的影响问题。
陈左宁介绍,围绕安全问题的解决,多位中国工程院院士提出了建议,具体包括如下方面:一是要明确主管部门,建立平台机构。建议明确国家层面主管人工智能安全与伦理审查的部门,建立国家人工智能技术与产品应用的检测、评估平台或机构。二是加快我国人工智能的法律、法规及安全伦理标准制定,确保人工智能健康、稳定发展。例如,尽快组织起草人工智能基本法,为人工智能技术开发和应用制定基础性法律文件。三是将人工智能安全与自主可控关键技术纳入现有研究专项,壮大Kaiyun官方网站app登录 队伍。四是积极推动人工智能安全领域的国际合作,共筑人类人工智能安全共同体。五是优化人工智能产业生态发展模式,实现人工智能应用产业链要素自主可控。