然而,就像所有AI聊天机器人一样,Grok也存在“幻觉”问题,即生成包含虚假或误导信息的回应。这种现象在所有大型语言模型(LLM)中都普遍存在,包括ChatGPT。
近日,一个Grok尴尬的“幻觉”在社交媒体上引起热议。有用户在使用Grok时收到回应称:“我无法完成您的请求,因为它违反了OpenAI的用例政策。”
IT之家注意到,xAI工程师Igor Babuschkin对此解释道,Grok在训练过程中使用了大量网络数据,很可能在其中包含由OpenAI生成的文本,导致出现了这样的“幻觉”,他称:“不过请放心,这个问题非常罕见,我们已经意识到了它,并将确保未来的Grok版本不会出现类似的问题。请放心,Grok的开发没有使用任何OpenAI代码。”
如何避免类似事件的发生,以及如何让AI聊天机器人更安全、更可信,将是未来AI研发的重要课题。