维斯塔格称,欧盟拟要求提供生成式AI服务的公司解释其做出相关决定的原因和道德标准。此外,维斯塔格提出给AI生成的文本等内容附上“AI制造”标签的想法。
生成式AI是一种能够从数据中学习并创造新内容的人工智能技术,近年来引起了广泛的关注和讨论。它有着巨大的潜力和挑战,可能会对创意产业、社会安全和人权等领域产生深远的影响。
IT之家查询相关报道获悉,欧盟议会正在考虑采用三层的监管方案,分别针对生成式AI的价值链、基础模型和具体内容。具体来说,第一层规则将适用于所有的通用目的AI(GPAI),无论其规模大小或模型类型,主要是规范生成式AI的提供者和使用者之间的责任和义务。第二层规则将适用于基础模型,即那些具有强大功能和通用性的生成式AI模型,要求其提供者在推出前和使用期间遵守一定的透明度、质量和责任要求。第三层规则将适用于特定类型的生成式AI内容,如大语言模型或生成艺术和音乐的AI,要求其提供者在内容生成方面遵守一些特殊的限制和要求,比如防止造成虚假信息、诽谤或侵犯版权等问题。
欧盟议会表示,这种分层的监管方案旨在确保生成式AI能够在符合人类价值观、安全性和可信赖性的前提下发展,并避免其逃避监管或造成不可预见的风险。同时,欧盟议会也呼吁其他国家和地区加入国际合作,共同制定一些基本的原则和标准来治理生成式AI。
生成式AI是人工智能领域最前沿也最具争议的技术之一,其不仅可以提高效率和生产力,也可以释放创造力和想象力。然而,它也可能带来伦理、法律和社会等方面的挑战,需要谨慎而负责地使用。