IT之家4月28日消息,根据一项早期的欧盟协议,部署生成性人工智能工具(如ChatGPT)的公司将必须披露用于开发其系统的任何有版权的材料,该协议可能为世界上第一部管理该技术的全面法律铺平道路。
据路透社报道,欧盟委员会两年前开始起草《人工智能法案》,以规范这一新兴技术,该技术在OpenAI发布ChatGPT后迎来了热潮。欧洲议会的成员已经同意将草案推进到下一阶段,即三方对话,届时欧盟立法者和成员国将敲定法案的最终细节。
根据提案,AI工具将根据其被认为的风险水平进行分类:从最低到有限、高和不可接受。可能引起关注的领域包括生物识别监控、传播虚假信息或歧视性语言等。IT之家注意到,虽然高风险的工具不会被禁止,但使用这些工具的人需要在其操作中保持高度透明。
使用生成式AI工具的公司,还必须披露用于开发其系统的任何受版权保护的材料。一位知情人士称,这一条款是过去两周内拟定的后期补充条款。该人士还说,一些委员会成员最初提出完全禁止使用受版权保护的材料来训练生成式AI模型,但这一提议被放弃,转而采取透明度要求。
欧洲议会副议员Svenja Hahn表示:“在保守派希望进行更多监控和左派幻想过度监管的情况下,议会找到了一个坚实的折中方案,可以适度监管人工智能,保护公民的权利,以及促进创新和推动经济发展。”