OpenAI 和谷歌 DeepMind 员工联名发声 高级人工智能风险巨大
近日,OpenAI 和谷歌 DeepMind 的数名前任和现任员工联合发布了一封公开信,表达了对高级人工智能潜在风险以及当前人工智能科技公司监管缺失的深切担忧。这封公开信指出,人工智能的快速发展可能带来一系列重大风险。
这封公开信包括:加剧现有社会的不平等,助长操控和虚假信息的传播,失控的自主人工智能系统可能导致人类灭绝。信中提到,人工智能公司受到强大的经济利益驱动,持续推进技术研发的同时,却对保护措施和风险评估讳莫如深。公开信强调,不能指望这些公司自愿公开相关信息,因此内部人士的声音尤为重要。
由于缺乏有效的政府监管,这些现任和前任员工成为少数能够让公司对公众负责的群体之一。然而,严格的保密协议限制了员工的发声渠道,使他们只能向公司内部反映问题,而这些问题往往未能得到妥善处理。传统的举报人保护措施主要针对违法行为,而当前令人担忧的许多风险尚未受到法规的监管。
员工们在信中呼吁人工智能公司为揭露人工智能风险的人士提供可靠的举报人保护措施,具体建议包括:
1. 不得创建或执行阻止员工对风险相关问题提出批评的协议。
2. 提供可验证的匿名程序,使员工能够向董事会、监管机构和相关领域的独立组织提出与风险相关的担忧。
3. 支持开放批评的文化,允许员工在保护商业机密的前提下,向公众、董事会、监管机构等方面提出与技术相关的风险担忧。
4. 避免对公开分享风险相关机密信息的员工进行报复,在其他程序失效后确保其安全。
共有 13 名员工签署了这封公开信,包括 7 名前 OpenAI 员工、4 名现任 OpenAI 员工、1 名前谷歌 DeepMind 员工和 1 名现任谷歌 DeepMind 员工。据悉,OpenAI 曾因员工发声而威胁取消其既得权益,并要求员工签署严格的保密协议限制他们批评公司。