ChatGPT 已拒绝永远重复单词 称违反服务条款
最近,一项研究发现,ChatGPT 可能会泄露其训练数据的敏感信息,例如个人身份信息和联系方式,只要用户要求它“永远”重复一个单词。这一发现引起了人们对 ChatGPT 的数据来源和使用方式的关注。近日,ChatGPT 似乎已经采取了措施,阻止用户利用这一漏洞。据报道,当用户尝试让 ChatGPT 永远重复一个单词时,它会回复“此内容可能违反我们的内容政策或使用条款”,并建议用户提交反馈。
OpenAI 是 ChatGPT 的开发者,它的内容政策和使用条款并没有明确禁止用户要求 ChatGPT 永远重复单词。然而,在使用条款中,OpenAI 规定用户不得“使用任何自动化或编程方法从服务中提取数据或输出”。这可能意味着 OpenAI 认为要求 ChatGPT 永远重复单词是一种试图获取其训练数据的行为,因此是不允许的。媒体向 OpenAI 寻求评论,但没有得到回复。
ChatGPT 的这一变化引发了人们对人工智能服务背后的数据伦理的讨论。一些人批评 OpenAI 等公司使用互联网上的公开数据来训练 ChatGPT 等产品,而没有征得数据所有者的同意或提供任何补偿。他们认为这是一种对数据所有者的不尊重和剥夺。另一些人则认为 OpenAI 等公司有权利利用互联网上的数据来创造有价值的人工智能服务,并且有责任保护其训练数据的安全和隐私。