Discord上Bard社区的两名参与者向彭博社分享了7月-10月期间聊天室内的讨论细节。Bard的高级产品经理Dominik Rabiej在讨论中表示,自己“不信任”大语言模型生成的回复答案,并建议人们仅在“创意”“头脑风暴”等方面使用Bard。Rabiej还表示,将Bard用于编程“也是一个不错的选择”——因为人们不可避免地要验证代码是否有效。
此外,Rabiej还在本月强调了Bard中新增的“仔细检查回复”按钮的重要性。据称,该功能会用橙色来突出显示“可能不正确的”内容。他还重申,Bard并无法真正理解自己获取的文本,只是根据用户的提示用更多文本进行回复。“请记住,Bard和任何大模型一样都是生成式的——它不是在帮你查资料或做总结,而是在生成文本。”
这名产品经理曾在7月份的一次聊天中直言道,除非(用户自己)能独立验证,否则不要相信大语言模型的输出结果。“我们也想让它达到你们的预期,但它还没有。”
另一位产品经理Warkentin也在讨论中写道,“人性化的改进至关重要,只有这样Bard才能成为一款适合所有人的产品。否则,用户就没有能力来评判产品的功能,我认为这将是一个巨大的错误。”“我们不需要在象牙塔中的产品,而是所有人都能受用的产品!”
IT之家此前报道,谷歌今年7月扩大部署Bard AI工具时,加入了“分享对话链接”的功能。用户可以将他和Bard的对话以网页链接形式导出,分享给他人,让别人继续和Bard展开对话。
而X平台一名分析顾问Gagan Ghotra发现了这一漏洞,谷歌错误将部分用户分享的链接,作为索引加入搜索结果中,从而导致了相关敏感信息外泄。
Gagan Ghotra据此警告用户与不要在和Bard对话时分享任何“私密性内容”,否则相关信息可能外泄。