Crampton表示,解散AI伦理团队是因为“单靠一个团队来负责AI的伦理或责任是不够的。”她说,微软采取了与其隐私、安全和无障碍团队相同的方法,即“将负责任的AI融入到整个公司”。这意味着微软在每个核心业务部门都有高级人员“负责推动负责任的AI”,以及“一个由不同技能和角色组成的负责任的AI‘拥护者’网络,以实现更频繁、更直接的沟通。”
此外,Crampton还透露,微软目前有近350人从事负责任的AI工作,其中有129人是全职专职,其余的人则将负责任的AI作为他们工作的核心部分。在解散AI伦理团队后,Crampton指出,一些团队成员随后被分配到了公司各个部门。然而,该团队的七名成员也在2023年初微软裁员1万人的行动中被解雇。
近几个月来,AI领域几乎没有摆脱过丑闻和争议,正是这些担忧导致了外界对微软解散AI伦理团队的反对。如果微软缺乏一个专门的团队来帮助指导其AI产品朝着负责任的方向发展,人们认为,其将难以遏制其Bing聊天
机器人所出现的各种滥用行为。微软最新的博客文章无疑是试图缓解公众对这一问题的担忧,微软并没有完全放弃其AI努力,而是试图确保公司各个团队都能与负责任AI方面的专家保持定期联系。
然而,毫无疑问,关闭其AI伦理与社会团队并没有给微软带来好名声,在这个话题上让公众放心还有很长的路要走。事实上,就连微软自己也认为ChatGPT应该受到监管。IT之家此前报道,就在昨天,“AI教父”Geoffrey Hinton离开了谷歌,并表示他对AI扩张的速度和方向感到非常不安。微软可能并没有忽视有关AI伦理开发方面的担忧,但其新策略是否正确,还有待观察和验证。