前OpenAI首席科学家联合创立AI初创公司SSI 筹集10亿美元致力于开发安全的超强AI
近日,由前OpenAI首席科学家Ilya Sutskever联合创立的人工智能初创公司Safe Superintelligence(SSI)宣布已筹集10亿美元资金,目标是开发远远超过人类能力且安全的AI系统。SSI目前拥有10名员工,计划利用这笔巨额资金扩大计算能力,并招聘全球顶尖人才,专注于在加州帕洛阿尔托(Palo Alto)和以色列特拉维夫(Tel Aviv)组建高可信度的小型研究团队。
尽管部分投资者对AI初创公司近期表现的热情有所减弱,认为这些公司在短期内难以盈利,SSI此次成功融资证明,仍有投资者愿意在基础AI研究上下注。本轮融资的投资者阵容强大,包括顶级风投公司Andreessen Horowitz、红杉资本、DST Global、SV Angel,以及由Github前CEO Nat Friedman和SSI首席执行官Daniel Gross共同经营的NFDG投资公司。
AI安全问题在全球范围内备受关注,尤其是防止失控AI可能对人类造成的潜在威胁。随着科技快速发展,如何确保AI技术既具创新性又安全可靠成为各界关注的焦点。加州立法者近日通过一项新法案,旨在对AI设立限制,确保技术的安全性。然而,该法案在业界引发争议,遭到OpenAI和谷歌的反对,却得到了Anthropic和埃隆·马斯克的xAI的支持。
Sutskever今年37岁,是AI领域内备受尊敬的技术专家之一。在OpenAI CEO Sam Altman被罢免的事件后,Sutskever在OpenAI董事会中的作用逐渐削弱,并于今年5月被除名,随后于6月与Daniel Gross和前OpenAI研究员Daniel Levy共同创立了SSI。
Sutskever表示,创立SSI是因为他发现了“与他之前所研究方向略有不同的机会”。他的新公司十分注重文化契合,特别在招聘时更看重候选人的品格和潜力,而不仅是经验或资历。Gross透露,他们花费大量时间评估应聘者的品格,并寻求具有非凡能力的人才。
SSI计划与云服务提供商和芯片公司合作,以满足其对强大计算能力的需求。然而,公司尚未决定与哪些企业进行合作。微软和英伟达等科技巨头通常是AI初创公司在基础设施领域的合作首选,未来SSI可能会在这些巨头之间做出选择。