美国AI圈震动!“OpenAI宫斗”核心人物、前首席科学家宣布成立人工智能公司
2024-06-20

|

924

当地时间6月19日,上个月从OpenAI离职的公司联合创始人、(前)首席科学家,以及2023年在OpenAI董事会投出关键一票将奥尔特曼赶出公司,又反悔将他请回来的深度学习领域权威专家伊尔亚·苏茨克维(Ilya Sutskever),正式宣布单飞后的全新AI创业项目。

苏茨克维向外界透露了他的最新动态,宣布创立一家名为“安全超级智能”(Safe SuperIntelligence,简称SSI)的新公司。

图片来源:社交平台X

SSI公司的主要方向是开发安全、强大的通用人工智能(AGI)系统,Ilya认为“这是我们这个时代最重要的技术问题”,公司短期内无意销售各种AI产品或服务。

Ilya的成立SSI的声明全文:

安全超级智能公司

超级智能触手可及

构建安全超级智能(SSI)是我们这个时代最重要的技术问题

我们创办了全球首个直击目标的SSI实验室,目标和产品只有一个:安全超级智能。

它被称为安全超级智能公司(Safe Superintelligence Inc.)

SSI是我们的使命,我们的名称,以及我们整个产品路线图,因为这是我们唯一的重点。我们的团队、投资者和商业模式都一致致力于实现SSI

我们将安全性和能力并行推进,视其为通过革命性工程和科学突破来解决的技术问题。我们计划在确保安全性始终领先的前提下,尽可能快地提升能力

这样,我们才能在平静中扩展规模

我们专注单一目标,避免管理冗杂或产品周期带来的分心,而我们的商业模式确保了安全性、安全保障和进展不受短期商业压力的影响

我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办公室,那里是我们的深厚根基之地,并且能够招聘到顶尖的技术人才

我们正在组建一支精简、高效的世界顶级工程师和研究人员团队,专注于SSI,别无他物

如果你符合条件,我们为你提供一个机会,让你完成一生的工作,并帮助解决我们时代最重要的技术挑战

时机已到。加入我们

伊尔亚·苏茨克维、丹尼尔·格罗斯、丹尼尔·利维

三人表示,开发安全的超级智能是公司的唯一重点,这是一种可以超越人类认知能力的机器智能。他们共同发布了一份声明:SSI 将专注于单一业务,这意味着公司不会受到管理费用、产品周期的干扰,公司的业务模式意味着“安全、保障和进步”都不会受到短期商业压力的影响。

值得注意的是,苏茨克维没有公开新公司的资金来源,也未透露他筹集的具体金额。

苏茨克维、杨·莱克(Jan Leike)于今年5月中旬双双从OpenAI离职。苏茨克维表示会在“适当的时候”披露他的下一个项目。

杨·莱克在社交平台X上公开解释了他们为什么离职。他写到原因跟对核心优先事项以及团队分配资源的分歧有关,他们更关注安全性、一致性等问题;超级对齐团过去几个月一直在“逆风航行”,在计算上很吃力,完成研究越来越困难。过去几年,安全文化和流程已经让位于更耀眼的产品。

这似乎是OpenAI高管第一次公开表示OpenAI将产品置于安全之上。OpenAI去年7月组建了超级对齐团队,由杨·莱克和伊尔亚·苏茨克维领导,目标是在未来4年内解决控制超级智能AI的核心技术挑战。该团队承诺将获得该公司20%的计算资源,但其实际获得计算资源却受到阻碍。

苏茨克维和莱克并不是唯二离开的人,自去年11月以来,OpenAI至少有5名注重安全的员工辞职或被开除。