一、聚焦AI:世界范围内的人工智能产业立法
有关“人工智能”(ArtificialIntelligence,AI)这一概念,最早可以追溯到1956年的达特茅斯会议。当时,麦卡锡(McCarthy)、明斯基(Minsky)等来自全美的10位年轻学者就“机器能否产生智能”等核心问题进行了为期两个月的讨论,此次会议也被视为人工智能发展史上的里程碑事件。时至60多年后的今天,人工智能已在医疗、交通、金融、农业、工业等多个行业中广泛
应用,并对传统商业模式进行了一系列颠覆性创新。据德勤发布的《全球人工智能发展白皮书》预测,到2025年,世界人工智能市场规模将超过6万亿美元。普华永道发布的《全球AI报告:探索人工智能革命》也认为,到2030年,AI将为全球经济贡献高达15.7万亿美元。AI带来最大经济收益的国家将是中国(2030年GDP增长26%)和北美(14.5%),相当于10.7万亿美元,占全球经济影响的近70%。
毫无疑问,人工智能技术正在重新定义制造业的发展方向,未来随着新一代信息技术与制造业的深度融合,人工智能技术将成为世界各国产业竞争角逐的焦点。近年来,世界各大经济体也陆续开始对人工智能进行系统性布局,如:法国政府早在2013年就发布了《法国
机器人发展计划》;2016年,在谷歌人工智能程序AlphaGo战胜韩国围棋名手李世石后,时任奥巴马(Obama)政府发布了《为人工智能的未来做准备》、《国家人工智能研究与发展战略计划》和《人工智能、自动化与经济》等系列报告,而人工智能技术也得到了各国政府、产业界以及学术界的普遍重视。包括中国在内,英国、德国、印度等国均在同一时期前后出台了相关的产业发展规划。
为了更好的规范和适应人工智能产业发展的新情况,各国关于人工智能的产业立法也在稳步推进。2008年3月,韩国政府公布了《
智能机器人开发及普及促进法》,并且宣布每五年制定一期“机器人产业基本计划”,以系统化方式推动机器人产业育成政策;2017年底,美国国会也提出两党议案——《人工智能未来法案》,以保持美国在人工智能应用和创新领域的全球竞争力;2021年,欧盟发布人工智能领域的首份综合性法案《人工智能法案》,系统性规范投放和使用人工智能系统的实体。在我国,上海市也于今年9月初启动了《上海市促进人工智能产业发展条例(草案)》征询意见程序。显然,一场规则领域的竞争已经在全球范围展开。
二、“产—规”一体:《条例》的基本内容与特点
1.坚持市场导向与政策鼓励
作为一项产业促进立法,深圳此次出台的《条例》坚持了市场化导向与政策鼓励并行的发展格局。一方面,《条例》明确了市人民政府及其办事部门在产业发展中的基本职责,确立了工业和信息化部门主管,发展改革、教育、科技创新、公安、财政等部门协同促进的监管格局;另一方面,《条例》也明确了人工智能产业发展中的市场化方向,在基础研究上,《条例》第十七条明确提出了培育和建设投资主体多元化、管理制度现代化、运行机制市场化、用工方式灵活化的新型研发机构;在产业基础设施建设上,《条例》也提出了完善以市场为主体的建设运营机制,为人工智能产业发展提供公共服务。总之,《条例》坚持市场化的基础上明确了各方职责,并拟借助多方力量促进人工智能产业的发展和提升。
2.兼顾产业发展与风险防范
在促进产业发展的同时强调风险防范是《条例》的第二项特点。霍金(Hawking)曾表示:“研发人工智能将成为人类历史上犯的最大错误。遗憾的是,这也可能是最后一个错误,因为人工智能的崛起可能是人类文明的终结。”人工智能自诞生以来,其应用是否会给经济社会带来风险始终是大众关注的焦点。为此,《条例》不仅在规范原则中明确了“安全可控”的发展思路,亦在总则部分强调了要在遵循有关法律法规和伦理安全规范的前提下,推动人工智能产品和服务的普及应用,在一定程度上为人工智能技术探索确立了法律边界。此外,《条例》还创新性地提出市人民政府应当设立人工智能伦理委员会,并在研究制定人工智能领域的伦理安全规范、建立健全人工智能伦理安全规范管理制度以及发布人工智能伦理安全实践指南等方面发挥作用。
3.践行多元共治的规范框架
相比传统的产业,人工智能以其数字化和智能化为代表,但这种行业壁垒的强化也带了产业治理的难题,为此《条例》提出了多元共治的发展目标,明确了在“政府规范、行业自律、企业自治、社会监督”基本格局的基础上,推动形成具有广泛共识的人工智能治理框架和标准规范,促进产业多元主体协同共治。不仅如此,《条例》还较为详细地界定了市人民政府及其有关部门、行业组织、人工智能企业以及其他单位和个人在产业治理中的功能,确立的基本的责任分配机制。值得一提的是,《条例》七十一条还强调了人工智能企业对公众的算法说明义务,对于公共决策领域以及涉及公共利益的商业领域的算法,要求相关组织或者个人进行必要的算法说明。
三、未竟之题:可能的规则进路
从行业发展来看,此次深圳市推出的《条例》无疑是一次有益的探索,该立法在确定监管主体、治理框架以及扶持政策等方面均具有典型的示范价值。但普遍来看,《条例》仅仅只是一个阶段性的立法成果,诸多重大争议尚未在《条例》中得以体现,发展人工智能产业仍然面临着规则供给的不足。
1.基础数据的利益分配机制
人工智能产业的发展离不开基础数据支撑,系统的学习和自我优化均需以海量数据投喂为前提,但遗憾的是,目前关于基础数据的利益分配机制如何展开尚处于争议之中。主流观点认为,与个人身份相关的底层数据,权利归用户本人所有;而经过匿名化加工后获得的数据集,则由企业享有相关的利益。《条例》第三十三条提出,要推动人工智能领域数据的流通利用,促进数据要素资源化、资产化、资本化发展。并且强调了个人数据应当进行去标识化处理。但值得注意的是,将脱敏后的数据利益归于平台公司固然有利于大数据产业发展,但这种利益分配格局却也存在不合理甚至不公平之处,并非是世界范围内的普遍做法。实践中已经出现了数字税(DigitalServiceTax)、数据信托(DataTrusts)、数据工会(DataLaborUnio
n)等治理方式。我国也有学者提出,考虑到我国的特殊情况,可采用由国有控股大数据交易所将其收益以集体转移支付的方式反哺社会,从而合理分配平台公司与用户之间的数据利益。产权清晰是行业发展的前提,如何确定公平合理的基础数据利益分配机制仍然有待于规则层面的进一步取舍。
2.应用场景的边界限制
随着人工智能应用加速落地,在产品检验、汽车驾驶、疾病诊断、城市管理等众多领域已经出现了人工智能的身影,但与此同时,人工智能引发的伦理道德、隐私保护、社会治理等问题也开始显现。特斯拉的创始人马斯克(Musk)就曾表示:“人工智能是关系人类文明存亡的最大威胁,这是汽车事故、飞机坠毁、滥用药物或劣质食品都比不了的威胁。”由于法律规制具有一定的滞后效应,无法对人工智能进行有效监管,如何在鼓励创新之余为人工智能划定应用边界始终是争议的焦点。2014年,全国首个运用人工智能技术的法律应用系统在天津正式投入使用,此举引发了不少关于司法公正的争议。中国社科院孙萍研究员针对当下外卖平台用工的一项研究也发现:平台公司通过算法来支配劳动者的劳动行为,他们的身体和劳作都被嵌入到极不稳定的数字互联和算法分配当中,这也进一步加剧了他们自身的不稳定性。人工智的应用具有双面性,在涉及价值判断以及人身管理的领域是否应当有所限制,这需要仔细衡量。为此,《条例》第七十二条提出要对人工智能不利影响进行伦理安全规范审查和风险评估,但这一评估程序如何落地却仍然需要进一步明确和细化。
3.人工智能的责任承担
2013年,美国学者约翰·弗兰克·韦弗出版了《机器人是人吗》一书,该书提出了人工智能时代一个非常重要的命题,当人工智能的独立决策达到相当高度时,谁该对其行为负责?是否需要赋予人工智能有限的法律人格?从此次《条例》的内容来看,其基本沿用了当下责任体系,由从事人工智能研究和应用的组织或者个人来承担相应的赔偿责任。
在技术发展发展初期,要求人工智能服务提供者对此负责无可厚非,但当人工智能的自主意识和行动能力达到一定的高度时,是否效仿公司制度赋予其独立的法律人格来承担责任却成为一个不得不面对的问题。理论界已经提出了强制保险、赔偿基金等思路,人工智能的责任承担关系到整个产业发展格局和未来,需要进行系统性考量。