OpenAI 和谷歌 DeepMind 员工联名发声 高级人工智能风险巨大

2024-06-05 09:54:25   |   唐薇   |   659

近日,OpenAI 和谷歌 DeepMind 的数名前任和现任员工联合发布了一封公开信,表达了对高级人工智能潜在风险以及当前人工智能科技公司监管缺失的深切担忧。这封公开信指出,人工智能的快速发展可能带来一系列重大风险。

这封公开信包括:加剧现有社会的不平等,助长操控和虚假信息的传播,失控的自主人工智能系统可能导致人类灭绝。信中提到,人工智能公司受到强大的经济利益驱动,持续推进技术研发的同时,却对保护措施和风险评估讳莫如深。公开信强调,不能指望这些公司自愿公开相关信息,因此内部人士的声音尤为重要。

由于缺乏有效的政府监管,这些现任和前任员工成为少数能够让公司对公众负责的群体之一。然而,严格的保密协议限制了员工的发声渠道,使他们只能向公司内部反映问题,而这些问题往往未能得到妥善处理。传统的举报人保护措施主要针对违法行为,而当前令人担忧的许多风险尚未受到法规的监管。

员工们在信中呼吁人工智能公司为揭露人工智能风险的人士提供可靠的举报人保护措施,具体建议包括:

1. 不得创建或执行阻止员工对风险相关问题提出批评的协议。

2. 提供可验证的匿名程序,使员工能够向董事会、监管机构和相关领域的独立组织提出与风险相关的担忧。

3. 支持开放批评的文化,允许员工在保护商业机密的前提下,向公众、董事会、监管机构等方面提出与技术相关的风险担忧。

4. 避免对公开分享风险相关机密信息的员工进行报复,在其他程序失效后确保其安全。

共有 13 名员工签署了这封公开信,包括 7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名前谷歌 DeepMind 员工和 1 名现任谷歌 DeepMind 员工。据悉,OpenAI 曾因员工发声而威胁取消其既得权益,并要求员工签署严格的保密协议限制他们批评公司。

特别提醒:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字、图片等内容的真实性、完整性、及时性本站不作任何保证或承诺,请自行核实相关内容。本站不承担此类作品侵权行为的直接责任及连带责任。如若本网有任何内容侵犯您的权益,请及时发送相关信息至bireading@163.com,本站将会在48小时内处理完毕。

OpenAI 和谷歌 DeepMind 员工联名发声 高级人工智能风险巨大

2024-06-05 09:54:25 浏览量: 659 作者: 唐薇

近日,OpenAI 和谷歌 DeepMind 的数名前任和现任员工联合发布了一封公开信,表达了对高级人工智能潜在风险以及当前人工智能科技公司监管缺失的深切担忧。这封公开信指出,人工智能的快速发展可能带来一系列重大风险。

这封公开信包括:加剧现有社会的不平等,助长操控和虚假信息的传播,失控的自主人工智能系统可能导致人类灭绝。信中提到,人工智能公司受到强大的经济利益驱动,持续推进技术研发的同时,却对保护措施和风险评估讳莫如深。公开信强调,不能指望这些公司自愿公开相关信息,因此内部人士的声音尤为重要。

由于缺乏有效的政府监管,这些现任和前任员工成为少数能够让公司对公众负责的群体之一。然而,严格的保密协议限制了员工的发声渠道,使他们只能向公司内部反映问题,而这些问题往往未能得到妥善处理。传统的举报人保护措施主要针对违法行为,而当前令人担忧的许多风险尚未受到法规的监管。

员工们在信中呼吁人工智能公司为揭露人工智能风险的人士提供可靠的举报人保护措施,具体建议包括:

1. 不得创建或执行阻止员工对风险相关问题提出批评的协议。

2. 提供可验证的匿名程序,使员工能够向董事会、监管机构和相关领域的独立组织提出与风险相关的担忧。

3. 支持开放批评的文化,允许员工在保护商业机密的前提下,向公众、董事会、监管机构等方面提出与技术相关的风险担忧。

4. 避免对公开分享风险相关机密信息的员工进行报复,在其他程序失效后确保其安全。

共有 13 名员工签署了这封公开信,包括 7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名前谷歌 DeepMind 员工和 1 名现任谷歌 DeepMind 员工。据悉,OpenAI 曾因员工发声而威胁取消其既得权益,并要求员工签署严格的保密协议限制他们批评公司。

,

Copyright ©2018 铋读网 All Rights Reserved.

京ICP备18051707号

京公网安备 11011302001633号