人工智能的蓬勃发展在为人类带来巨大福祉的同时也引入了日益增长的风险。
生成式人工智能现已被别有用心者用于欺骗和传播虚假信息,IT之家此前报道的深度伪造事件也显示了这一新兴技术被不当
应用的危险性。
调查报告显示,公众对更严格的人工智能领域法规有着普遍期待,希望未来人工智能发展中优先考虑道德和安全因素,而不是一味求快。
对于当前的人工智能监管框架,仅有 55.5% 受访者认为其在管控人工智能风险方面有效,持有“非常有效”观点的比例更是只有 14.55%,可见现有监管制度仍有不小改进余地。
2000 名受访美国公民中有超过八成认为人工智能监管中需要至少一定程度的国际规范或标准,这凸显了公众对全球人工智能治理合作的期望。
此外,82.45% 的受访者对人工智能训练中使用个人数据感到不安,这一比例在 IT 软件业者中上升至 91.96%,显示人工智能发展中不能忽视公众对隐私保护的需求。
在版权部分,有 83.9% 的受访者认为人工智能企业需要为版权内容付费,表达了一般民众希望创作者获得公平报偿的看法。
在国别层面,Authority Hacker 的另一项研究显示,世界近 2/3 的国家正在人工智能政府监管方面作出积极努力,欧盟和中国在这一方面处于领先位置。
195 个受调查的国家中已有 32 个颁布了全面的人工智能法规,有 29 个国家相关法规处于制定阶段或已制定了不具约束力的矿建,还有 53 个国家正处于条款起草阶段。