这个新团队将负责监控和评估当前和未来人工智能模型的稳固性,并保护它们免受一切恶意使用。在预期的风险中,OpenAI尤其指出了网络攻击(可以通过人工智能大规模自动进行)、化学威胁、生物威胁、放射性和核威胁等……
据领英网上官方页面显示,OpenAI公司员工不到500人。公司没有进一步说明新团队的规模。团队将由麻省理工学院教授、前谷歌顾问亚历山大·马德里领导。
与此同时,OpenAI启动了一项“挑战”:开发者受到邀请来想象攻击场景和限制其影响的响应。这家企业将为10个“最佳”项目提供2.5万美元资金。这场竞赛还可以让OpenAI发现能够加入这个新团队的Kaiyun官方网站app登录 。
这一举措出台之际,正值英国将主办首届人工智能安全峰会。包括OpenAI、谷歌以及政府领导人、科技界和学界人士在内的上百参会者将于11月1日齐聚布莱奇利。这次国际会议将会讨论人工智能对国家安全的威胁和可能的保障措施。
5月底,包括OpenAI首席执行官萨姆·阿尔特曼在内的350多名知名人士签署了一封公开信,引发了关于人类对人工智能失去控制的争论。公开信只有一段话:“降低人工智能带来的灭绝风险,应该与大流行病和核战争等其他大规模风险一起纳入全球优先事项。”
类似的这些呼吁主要被视为人工智能巨头自证清白的一种方式,因为世界各国政府都在寻找监管人工智能的正确方式。其他一些人则认为,这是该行业初创企业夸大这项技术的极端重要性以及它们在生态系统中的作用的一种方式。在媒体、广告或银行业,人工智能已经开始威胁就业,但其“灾难性风险”目前更加不确定。(编译/刘卓)