上述知情人士称,Alphabet已经建议员工不要将其机密材料输入人工智能聊天机器人,谷歌证实了这一消息,并称这是保护信息的长期政策。
其中一些人还称,Alphabet还提醒其工程师避免直接使用聊天机器人生成的计算机代码。谷歌对此表示,Bard可能会给出不合适的代码建议,但它仍然可以帮助程序员。谷歌还表示,其旨在对其技术的局限性保持透明。
谷歌的谨慎态度也反映了企业安全标准的发展趋势,即警告员工不要使用公开可用的聊天程序。世界各地越来越多的企业对AI聊天机器人设置了防护措施,其中包括三星、亚马逊和德意志银行。据报道,苹果也是如此,但该公司没有回应置评请求。
根据社交网站Fishbowl进行的一项调查,在今年1月份有43%的专业人士在使用ChatGPT或其他AI工具,其中很多人没有告诉他们的老板。这项调查涵盖了近1.2万名受访者,其中包括来自美国顶级公司的一些员工。
IT之家注意到,目前谷歌正在向180多个国家推广Bard,谷歌在6月1日更新的隐私声明中也表示:“不要在你的Bard对话中包含机密或敏感信息。”