据悉,该原则旨在促进有关生成和所有其他人工智能技术的公平、准确和有益的决策。不过ACM方面并未就此敦促推行具体的立法。
ACM美国技术政策委员会主席Jeremy Epstein表示,“我们会直接回应立法机构的意见征询,但不会对法案或其中的部分内容公开表态。”
ACM成立于1947年,号称是“世界上最大的科学和教育计算协会”,拥有约110000名学生和专业会员。他们认为,生成式AI日益强大,或将对社会构成严重风险,目前的技术安全使用指南不足,因此需要建立新标准,以确保可规避该技术可能带来的危害。
▲图源美国人工智能协会
此次发布的原则中,有四项原则专门针对生成式AI,另外四项原则改编自TPC 2022年的《负责任的算法系统声明》原则,IT之家将原则全文置于下方:
生成式AI特定原则
部署和使用的限制和指南:应与所有利益相关者协商,审查和
应用书面或修订的法律和法规,以在需要时限制生成人工智能技术的部署和使用,以最大程度地减少危害。如果没有明确和充分的保障措施,包括“human in the loop”以及相关利益相关者之间的明确共识,即该系统的好处将大大超过其潜在的负面影响,则不应允许任何高风险的人工智能系统运行。一种方法是定义风险等级,最高级别为不可接受的风险,最低级别为最小风险。
所有权:知识产权(IP)法律和法规尚未充分考虑生成式人工智能系统的结构和功能的固有方面。
个人数据控制:生成式人工智能系统应该允许人们选择不使用他们的数据来训练系统或促进其信息生成。
可纠正性:生成人工智能系统的提供者应创建和维护公共存储库,可以记录系统所犯的错误,并可以选择进行更正。
改编的先前原则
透明度:任何使用生成式人工智能的应用程序或系统都应向适当的利益相关者明确披露。
可审计性和可质疑性:生成人工智能系统的提供者应确保尽可能记录系统模型、算法、数据和输出(适当考虑隐私),以便在适当的情况下对其进行审计和/或质疑。
限制环境影响:鉴于生成式人工智能模型对环境的巨大影响,建议就方法论达成共识,以衡量、归因并积极减少此类影响。
更高的安全性和隐私性:生成式人工智能系统容易受到各种新的安全和隐私风险的影响,包括新的攻击向量和恶意数据泄露等。