Facebook当地时间星期一表示,向20亿用户中的大多数发布了一款工具,能筛选与自杀有关的帖子或
视频,发现用户自杀倾向。这款人工智能工具的目的,是更早地发现和评估与自杀倾向有关的帖子,因为时间是阻止自杀的一个关键因素。
Facebook表示,它将利用模式识别技术,扫描所有帖子和评论是否包含有特定关键字,确定用户是否需要帮助。Facebook员工可能会拨打热线电话,帮助有自杀倾向的用户。Facebook工具还将利用人工智能技术,首先向最需要帮助的用户提供帮助。Facebook称,“Are you ok?”(你还好吗?)或“Can I help?”(你需要帮助吗?)等短语,可能意味着用户需要尽快得到帮助。
用户可以向Facebook报告与自杀有关的
视频,拨打热线电话,为朋友寻求帮助。Facebook还将向直播自杀的用户提供帮助,与帮助热线或其好友联系。
Facebook还将向用户提供与执法部门联系的信息。
Facebook一直在美国测试这款工具,将把它推广到大多数开展业务的国家和地区,但欧盟国家除外。Facebook没有披露不在欧盟推广这款工具的原因,但表示,在就如何以最佳方式部署这款工具与政府部门进行沟通。
在4月份遭遇多起直播自杀的事件后,Facebook加大了发现和阻止用户自杀倾向的力度。Facebook 5月份表示,“社区运营”团队——负责审核不恰当内容的帖子——新招聘了3000名员工。
Facebook首席执行官马克·扎克伯格(Mark Zuckerberg)当时就表示,公司将利用人工智能帮助发现有问题的帖子,但他承认,这一问题解决起来难度很大,“无论我们有多少员工负责审核内容,都不可能做到面面俱到”。
这款工具利用人工智能技术,表明Facebook在对其网络进行监管方面对算法的依赖。在这款工具中,算法不仅仅决定哪些帖子需要审核,还决定了对它们进行审核的顺序。
Facebook一直利用人工智能完成各类任务。Facebook利用人工智能扫描儿童色情和其他不恰当内容,训练
机器人读懂人的面部表情。