美国商务部下属国家标准与技术研究院(NIST)发布了《人工智能风险管理框架》(RMF),该文件旨在帮助指导机构组织在开发和部署人工智能系统时,不会产生偏见和其他负面后果。人工智能律师事务所BNH.AI的创始人AndrewBurt表示,该文件很好地定义了组织未来降低人工智能风险的标准法律方法。
随着人工智能发展步伐的加快,使用人工智能的潜在危害也在加快。NIST应美国国会的要求,设计了RMF,在一种指导规范下来创建负责任的人工智能系统。
RMF执行摘要指出:“如果没有适当的控制,人工智能系统会放大、延续或加剧个人和社区的不公平或不良后果。”“通过适当的控制,人工智能系统可以减轻和管理不公平的结果。”
这份48页的文件,以四种方式帮助组织进行人工智能风险管理,称为RMF核心功能——包括“成长”地图(Map)、测量(Measure)、管理(Manage)和治理(Govern)。
首先,它鼓励用户全面规划人工智能系统,包括预期的商业目的和使用人工智能可能造成的潜在危害。预设人工智能系统产生积极和消极结果的不同方式对整个过程至关重要。业务环境在这里至关重要,组织对风险的容忍度也是如此。
第二,RMF要求有道德的人工智能从业者使用第一步中创建的地图来确定如何以定量和定性的方式衡量人工智能系统所产生的影响。RMF表示,应定期进行测量,包括人工智能系统的功能、可检查性和可信度(避免偏差),并将结果与基准进行比较。
第三,组织将使用第二步中的测量结果来帮助其持续管理人工智能系统。RMF框架为用户提供了管理已部署人工智能系统风险的工具,并根据评估的风险和风险优先级分配风险管理资源。
地图、测量和管理功能在一个总体治理框架下结合在一起,该框架为用户提供了实施风险缓解战略所有必要组成部分的政策和程序。
RMF没有法律效力,而且可能未来也不会。但Burt表示,它确实为人工智能风险管理提供了一种可行的方法。
NIST框架的部分优势在于它是自愿的,而不是监管,这可能会成为一个治理标准。
BNH.ai为许多客户进行AI审计,Burt预计RMF方法将成为未来进行AI审计的标准方式。公司很快意识到需要审计自己的人工智能系统,以确保他们不会以有害的方式伤害用户或使偏见永久化。
如今,大部分风险源于快速采用ChatGPT等工具以及其他大型语言模型和生成型人工智能模型。由于这些系统是基于来自整个互联网的数据集进行训练的,因此训练数据中包含的偏见和仇恨言论的数量可能令人震惊。
在某些方面,RMF将成为美国对标欧盟人工智能法案的文件。2021首次提出的《欧盟人工智能法案》很可能在今年成为法律,其可接受风险等级将对公司部署人工智能系统的能力产生巨大影响。
然而,这两种方法之间存在很大差异。首先,《人工智能法案》将具有法律效力,并将对违法行为处以罚款。另一方面,RMF是完全自愿的,并将通过成为律师可以在民事法庭上引用的行业标准来实施改变。RMF具有通用性和灵活性,足以适应快速变化的人工智能环境,这也与《人工智能法案》不同。
欧盟的做法倾向于系统化,固化不灵活,试图一次解决所有问题。有可能会抑制人工智能高速创新和发展的脚步,当然与此同时风险也会大大降低。NISTRMF要灵活得多,使得人工智能的开发和
应用门槛降低,有利于创新和普及的速度提高。