谷歌要求其员工不要在 Bard 或 ChatGPT 中输入内部数据
6月16日,据路透社援引四位“熟悉此事”的消息人士称,拥有谷歌的公司Alphabet已开始指导其员工规范聊天机器人的使用,其中包括禁止在任何人工智能聊天机器人中输入机密信息。
其实,这并没有什么特别的。它仅适用于 Alphabet 长期以来为保护敏感内部信息而制定。令人震惊的是,上述禁令不仅适用于ChatGPT或 Bing Chat等竞争对手的聊天机器人,还包括他们自己的Google Bard,现已在国际上向公众开放。
谷歌内部隐私政策 6 月 1 日的更新声明:“不要在与巴德的对话中包含机密或敏感信息。”根据 Fishbowl 的一项研究,在美国接受调查的 12,000 名专业人士中,去年 2 月已经有43% 的人在日常工作中使用 ChatGPT……通常没有通知他们的上级。
与此相关,Alphabet 还警告其工程师避免“直接”使用聊天机器人生成的编程代码。该公司表示,Bard 可以提供“不需要的代码提示”,但仍然对程序员有帮助。Alphabet 并不是唯一一家在使用聊天机器人时采取这种预防措施的公司:据了解,三星、亚马逊、德意志银行或苹果公司也采用了这种预防措施。