▲图源Pixabay
知情人士称,谷歌母公司Alphabet已建议员工不要将其机密材料输入给AI聊天机器人,同时该公司还提醒IT工程师避免直接使用聊天机器人生成的计算机代码。
谷歌对此回应称,其聊天机器人Bard可以提出不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌表示其目标是对生成式AI的技术局限性保持足够的透明度。
分析人士指出,这些担忧表明谷歌希望避免生成式AI对公司的商业化运作造成损害,这种谨慎的态度也体现出对生成式AI的使用限制正越发成为某种具有共性的企业安全标准。
IT之家此前报道,包括三星、亚马逊、苹果等大型科技企业对员工使用生成式AI都设置了一定的限制,以确保不会对公司运营造成风险。
支持OpenAI的微软则拒绝评论是否已全面禁止员工将机密信息输入ChatGPT这样的公共AI
应用。但微软消费者业务首席营销官Yusuf Mehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。
根据Fishbowl对包括美国顶级公司员工在内的近12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他生成式AI工具,而且通常都没有告诉他们的老板。