图源Pixabay
综合《财富》杂志、彭博社当地时间周六晚上报道,根据彭博社获得的一份欧盟文件,所有通用人工智能系统的开发人员(或者很有可能会被广泛
应用的强大模型)都必须满足基本的透明度要求,除非这些系统是免费开源的。
IT之家附有关要求如下:
制定可接受的使用政策
随时更新有关模型训练的信息
将用于训练模型的数据进行汇总,将详细摘要上报
制定尊重《版权法》的政策
根据该文件,被认为会构成“系统性风险”的模型将受到额外规则的约束。报道称,欧盟将根据训练模型的计算能力来确定是否存在风险,为模型设定的阈值是每秒超过10万亿次运算。有专家表示,目前唯一能达到这一门槛的模型是OpenAI的GPT-4。
此外,欧盟执行机构还可根据数据集的规模、是否在欧盟拥有至少10000名注册商业用户、注册用户的最终数量等可能的指标来指定其他阈值。
报道还称,在欧盟委员会制定出更协调且长期有效的控制措施期间,这些“能力更强”的模型应该签署行为准则。这些模型还必须满足如下要求:
主动报告自身能耗情况
在内部或外部进行红队测试/对抗性测试
评估和减轻可能的系统性风险,并报告任何事件
确保使用适当的网络安全控制措施
报告用于微调模型的信息及其系统结构
如果制定了更节能的标准,则开发过程中应当符合新的标准
至于没有签署行为准则的模型,则必须向欧盟委员会证明它们确实会遵守《AI法案》。需要注意的是,对开源模型的豁免不适用于那些“被认为会带来系统性风险”的模型。