谷歌要求其员工不要在 Bard 或 ChatGPT 中输入内部数据

2023-06-16 09:02:00   |     |   7

6月16日,据路透社援引四位“熟悉此事”的消息人士称,拥有谷歌的公司Alphabet已开始指导其员工规范聊天机器人的使用,其中包括禁止在任何人工智能聊天机器人中输入机密信息。

其实,这并没有什么特别的。它仅适用于 Alphabet 长期以来为保护敏感内部信息而制定。令人震惊的是,上述禁令不仅适用于ChatGPT或 Bing Chat等竞争对手的聊天机器人,还包括他们自己的Google Bard,现已在国际上向公众开放。

谷歌内部隐私政策 6 月 1 日的更新声明:“不要在与巴德的对话中包含机密或敏感信息。”根据 Fishbowl 的一项研究,在美国接受调查的 12,000 名专业人士中,去年 2 月已经有43% 的人在日常工作中使用 ChatGPT……通常没有通知他们的上级。

与此相关,Alphabet 还警告其工程师避免“直接”使用聊天机器人生成的编程代码。该公司表示,Bard 可以提供“不需要的代码提示”,但仍然对程序员有帮助。Alphabet 并不是唯一一家在使用聊天机器人时采取这种预防措施的公司:据了解,三星、亚马逊、德意志银行或苹果公司也采用了这种预防措施。


特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

谷歌要求其员工不要在 Bard 或 ChatGPT 中输入内部数据

2023-06-16 09:02:00 浏览量: 7 作者:

6月16日,据路透社援引四位“熟悉此事”的消息人士称,拥有谷歌的公司Alphabet已开始指导其员工规范聊天机器人的使用,其中包括禁止在任何人工智能聊天机器人中输入机密信息。

其实,这并没有什么特别的。它仅适用于 Alphabet 长期以来为保护敏感内部信息而制定。令人震惊的是,上述禁令不仅适用于ChatGPT或 Bing Chat等竞争对手的聊天机器人,还包括他们自己的Google Bard,现已在国际上向公众开放。

谷歌内部隐私政策 6 月 1 日的更新声明:“不要在与巴德的对话中包含机密或敏感信息。”根据 Fishbowl 的一项研究,在美国接受调查的 12,000 名专业人士中,去年 2 月已经有43% 的人在日常工作中使用 ChatGPT……通常没有通知他们的上级。

与此相关,Alphabet 还警告其工程师避免“直接”使用聊天机器人生成的编程代码。该公司表示,Bard 可以提供“不需要的代码提示”,但仍然对程序员有帮助。Alphabet 并不是唯一一家在使用聊天机器人时采取这种预防措施的公司:据了解,三星、亚马逊、德意志银行或苹果公司也采用了这种预防措施。


,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号