谷歌针对生成式人工智能攻击 扩大“漏洞赏金”计划

2023-10-27 09:12:47   |   唐薇   |   28

近日,据报道,由于对生成式人工智能的担忧始终存在,谷歌宣布扩大其漏洞奖励计划(VRP),重点关注特定于人工智能的攻击和恶意机会。

因此谷歌发布了更新的指南,详细说明了哪些发现有资格获得奖励,哪些发现超出了范围。例如,发现泄露私人、敏感信息的训练数据提取属于范围,但如果它只显示公共、非敏感数据,那么它就没有资格获得奖励。去年,谷歌向安全研究人员提供了 1200 万美元用于发现漏洞。

谷歌解释说,人工智能与其他技术相比存在不同的安全问题,例如模型操纵和不公平偏见,需要新的指导来反映这一点。据铋读网了解,谷歌在一份声明中表示:“我们相信扩大 VRP 将激励围绕人工智能安全和安保的研究,并揭示潜在问题,最终使人工智能对每个人来说都更安全。” “我们还在扩大我们的开源安全工作,以使有关人工智能供应链安全的信息普遍可发现和可验证。”


特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

谷歌针对生成式人工智能攻击 扩大“漏洞赏金”计划

2023-10-27 09:12:47 浏览量: 28 作者: 唐薇

近日,据报道,由于对生成式人工智能的担忧始终存在,谷歌宣布扩大其漏洞奖励计划(VRP),重点关注特定于人工智能的攻击和恶意机会。

因此谷歌发布了更新的指南,详细说明了哪些发现有资格获得奖励,哪些发现超出了范围。例如,发现泄露私人、敏感信息的训练数据提取属于范围,但如果它只显示公共、非敏感数据,那么它就没有资格获得奖励。去年,谷歌向安全研究人员提供了 1200 万美元用于发现漏洞。

谷歌解释说,人工智能与其他技术相比存在不同的安全问题,例如模型操纵和不公平偏见,需要新的指导来反映这一点。据铋读网了解,谷歌在一份声明中表示:“我们相信扩大 VRP 将激励围绕人工智能安全和安保的研究,并揭示潜在问题,最终使人工智能对每个人来说都更安全。” “我们还在扩大我们的开源安全工作,以使有关人工智能供应链安全的信息普遍可发现和可验证。”


,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号