然而,近日欧洲议会未能就《人工智能法案》的基本提案达成一致,使得该提案最终获批遭遇绊脚石。
2021年4月,欧盟委员会提出了《人工智能法案》条例草案。去年12月6日,欧盟理事会通过了关于《人工智能法案》的共同立场,旨在确保投放到欧盟市场并在欧盟范围内使用的人工智能系统是安全的。
这一提案对人工智能系统的定义、禁止人工智能
应用的领域、人工智能系统的高风险分类、与执法机关有关的范围和规定、支持创新的措施等方面进行了阐述。欧盟希望通过该法案为人工智能在整个单一市场的发展制定一个统一、横向的法律框架,既能推动人工智能的投资和创新,又能促进保障公民基本权利和安全的现行法律得到有效执行和加强。欧盟理事会表示,这样法案将与其他倡议齐头并进,包括旨在加快欧洲人工智能投资的《人工智能协调计划》。
负责数字政策和竞争事务的欧委会执行副主席玛格丽特·韦斯塔格在草案提出时说,即将出台的欧洲规则将有助于制定“新的全球规范,确保人工智能可以被信任。”捷克负责数字化事务的副总理兼地方发展部长伊万·巴尔托什也表示,人工智能对我们的未来至关重要。欧盟设法实现一种平衡,一方面注重人工智能发展带来的所有好处,另一方面是充分尊重公民的基本权利,这将促进整个欧洲的人工智能技术的创新和发展。
然而,提案的推进并没有预想中顺利,目前欧洲议会议员们尚未就提案的基本原则达成一致。他们争议的核心是监管是否会阻碍创新,即如何平衡数据隐私与避免扼杀人工智能的创新和投资。其中最具争议的领域是决定哪些人工智能系统将被归为“高风险”。
绿党议员谢尔盖·拉戈金斯基说,议员们之间明显的冲突在于,一方面是对公民基本权利的关注,另一方面是担心这些约束必然将与创新产生冲突。业界对《人工智能法案》也存在广泛争议,有的人认为此类法规对于禁止有风险的不当行为是必要的,但严格限制通用开源人工智能的使用、共享可能被视为一种倒退,不利于科技发展。而另一方则坚称,加强对公司使用人工智能系统的审查十分必要。
渣打银行数据管理风险和人工智能主管维贾伊·贾伊拉杰表示,在进行隐私评估之前,不会进行人工智能项目。他预计欧盟即将出台的立法将迫使公司密切关注人工智能产品的第三方供应商。一旦监管机构发现人工智能系统存在风险,他们需要向欧盟国家提供有关技术和供应链的细节。
国际隐私专业人士协会首席研究员凯塔琳娜·柯纳说,虽然公司可能意识到了人工智能的风险,但他们缺乏正确处理这些风险的工具和指导方针。她认为,到目前为止,欧洲监管机构还没有就公司解释其人工智能算法的能力或避免歧视等主题提供详细的指导方针。
此前外界预计备受期待的《人工智能法案》将于3月底在欧洲议会进行表决,届时欧盟各国家将开始谈判立法的最终条款。然而,分析人士指出,鉴于提案内容很长且相当复杂,欧洲议会议员们仍在协商,以便能够达成协议。现在明确下一步的最后期限还为时尚早,立法可能因遭遇瓶颈而推迟。