同时,增强全社会的人工智能伦理意识与行为自觉,积极引导负责任的人工智能研发与应用活动,促进人工智能健康发展。
《新一代人工智能伦理规范》第一条即开宗明义:本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题。
该伦理规范明确提出,人工智能各类活动应遵循增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等六项基本伦理规范。
人工智能特定活动应遵守的伦理规范包括管理规范、研发规范、供应规范和使用规范共18项具体伦理要求,管理规范包含推动敏捷治理、积极实践示范、正确行权用权、加强风险防范、促进包容开放;研发规范包含强化自律意识、提升数据质量、增强安全透明、避免偏见歧视;供应规范包括尊重市场规则、加强质量管控、保障用户权益、强化应急保障;使用规范包含提倡善意使用、避免误用滥用、禁止违规恶用、及时主动反馈、提高使用能力。
其中,加强风险防范方面,增强底线思维和风险意识,加强人工智能发展的潜在风险研判,及时开展系统的风险监测和评估,建立有效的风险预警机制,提升人工智能伦理风险管控和处置能力。
保障用户权益方面,在产品与服务中使用人工智能技术应明确告知用户,应标识人工智能产品与服务的功能与局限,保障用户知情、同意等权利。为用户选择使用或退出人工智能模式提供简便易懂的解决方案,不得为用户平等使用人工智能设置障碍。
组织实施上,《新一代人工智能伦理规范》自公布之日起施行,并根据经济社会发展需求和人工智能发展情况适时修订。(完)