IT采购网6月19日消息,据路透社报道,谷歌母公司Alphabet在全球推广其聊天机器人Bard时提醒员工需小心使用,并且不要将机密材料输入聊天机器人中。这一消息得到了四名知情人士的确认。谷歌也证实了这一提醒,并称这是他们长期以来保护信息的政策。
据了解,Alphabet已建议员工避免直接使用聊天机器人生成的计算机代码。谷歌表示,Bard可能会给出不合适的代码建议,但仍可协助程序员。他们还强调,他们旨在对其技术的局限性保持透明。
这一谨慎态度反映了企业安全标准的发展趋势,警告员工不要使用公开可用的聊天程序。全球范围内,越来越多的企业开始为AI聊天机器人设置防护措施,其中包括三星、亚马逊和德意志银行。据报道,苹果也采取了类似措施,不过该公司对此未做出回应。
IT采购网了解到,根据社交网站Fishbowl的一项调查显示,今年1月份有43%的专业人士在使用ChatGPT或其他AI工具,而其中很多人并没有告知他们的上司。这项调查覆盖了近1.2万名受访者,其中包括来自美国顶级公司的员工。
值得注意的是,谷歌目前正在向180多个国家推广Bard,并在其6月1日更新的隐私声明中明确表示:"在你的Bard对话中不要包含机密或敏感信息。"这一表态再次强调了保护信息安全的重要性。