ChatGPT 已拒绝永远重复单词 称违反服务条款

2023-12-05 10:12:23   |   文白不白   |   43

最近,一项研究发现,ChatGPT 可能会泄露其训练数据的敏感信息,例如个人身份信息和联系方式,只要用户要求它“永远”重复一个单词。这一发现引起了人们对 ChatGPT 的数据来源和使用方式的关注。近日,ChatGPT 似乎已经采取了措施,阻止用户利用这一漏洞。据报道,当用户尝试让 ChatGPT 永远重复一个单词时,它会回复“此内容可能违反我们的内容政策或使用条款”,并建议用户提交反馈。

OpenAI 是 ChatGPT 的开发者,它的内容政策和使用条款并没有明确禁止用户要求 ChatGPT 永远重复单词。然而,在使用条款中,OpenAI 规定用户不得“使用任何自动化或编程方法从服务中提取数据或输出”。这可能意味着 OpenAI 认为要求 ChatGPT 永远重复单词是一种试图获取其训练数据的行为,因此是不允许的。媒体向 OpenAI 寻求评论,但没有得到回复。

ChatGPT 的这一变化引发了人们对人工智能服务背后的数据伦理的讨论。一些人批评 OpenAI 等公司使用互联网上的公开数据来训练 ChatGPT 等产品,而没有征得数据所有者的同意或提供任何补偿。他们认为这是一种对数据所有者的不尊重和剥夺。另一些人则认为 OpenAI 等公司有权利利用互联网上的数据来创造有价值的人工智能服务,并且有责任保护其训练数据的安全和隐私。


特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

ChatGPT 已拒绝永远重复单词 称违反服务条款

2023-12-05 10:12:23 浏览量: 43 作者: 文白不白

最近,一项研究发现,ChatGPT 可能会泄露其训练数据的敏感信息,例如个人身份信息和联系方式,只要用户要求它“永远”重复一个单词。这一发现引起了人们对 ChatGPT 的数据来源和使用方式的关注。近日,ChatGPT 似乎已经采取了措施,阻止用户利用这一漏洞。据报道,当用户尝试让 ChatGPT 永远重复一个单词时,它会回复“此内容可能违反我们的内容政策或使用条款”,并建议用户提交反馈。

OpenAI 是 ChatGPT 的开发者,它的内容政策和使用条款并没有明确禁止用户要求 ChatGPT 永远重复单词。然而,在使用条款中,OpenAI 规定用户不得“使用任何自动化或编程方法从服务中提取数据或输出”。这可能意味着 OpenAI 认为要求 ChatGPT 永远重复单词是一种试图获取其训练数据的行为,因此是不允许的。媒体向 OpenAI 寻求评论,但没有得到回复。

ChatGPT 的这一变化引发了人们对人工智能服务背后的数据伦理的讨论。一些人批评 OpenAI 等公司使用互联网上的公开数据来训练 ChatGPT 等产品,而没有征得数据所有者的同意或提供任何补偿。他们认为这是一种对数据所有者的不尊重和剥夺。另一些人则认为 OpenAI 等公司有权利利用互联网上的数据来创造有价值的人工智能服务,并且有责任保护其训练数据的安全和隐私。


,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号