未来已来:OpenAI联合创始人Ilya Sutskever 创立“安全超级智能”公司

摘要: 科技界再次迎来震撼消息,OpenAI的联合创始人Ilya Sutskever宣布成立一家名为“安全超级智能”(Safe Superintelligence,简称SSI)的新公司。该公司的目标是直接创造一个安全的超级智能,而非追求短期商业利益。这一举措不仅标志着Sutskever个人职业生涯的新篇章,也预示着人工智能领域安全主义与加速主义路线之争的延续。


引言

在人工智能的快速发展中,安全问题一直是科技界关注的焦点。而今,这一问题再次被推至风口浪尖。Ilya Sutskever,这位深度学习领域的权威专家,选择离开OpenAI,创立了一家全新的AI公司——SSI,旨在打造一个安全的超级智能。

安全第一的创业理念

SSI公司的成立,体现了Sutskever对于人工智能安全的深刻理解和坚定立场。他强调,公司将专注于创造一个安全、强大的人工智能系统,而不会在短期内推出任何商业化产品或服务。这种“安全第一”的理念,与OpenAI的发展路线形成了鲜明对比。

与OpenAI的理念分歧

尽管Sutskever在离开OpenAI时表达了对公司未来的美好祝愿,但他的新公司显然选择了一条不同的道路。SSI的成立,不仅是Sutskever个人职业生涯的一次重大转变,也是对OpenAI加速主义路线的一种回应。

核安全级别的AI安全

Sutskever在描述SSI的安全目标时,使用了“像核安全一样的安全”这一比喻。这表明,他对于AI安全的重视程度,已经达到了前所未有的高度。SSI将尝试通过工程突破,而非简单的技术防护,来实现这一目标。

强大的创始团队

除了Sutskever本人,SSI的创始团队还包括前苹果公司机器学习主管丹尼尔·格罗斯,以及与Sutskever在OpenAI共事的工程师丹尼尔·莱维。这支团队的组建,为SSI的未来发展奠定了坚实的基础。

投资人的信心与挑战

SSI的商业模式和目标,无疑给投资人带来了巨大的信心。然而,公司在实现“超级智能”的最终目标之前,将面临长时间的无产出状态。这将是SSI在发展过程中需要克服的一大挑战。

结语

SSI的成立,不仅是Sutskever个人对于人工智能安全的一种探索,也是对整个行业的一种启示。在追求技术进步的同时,如何确保人工智能的安全性,将是未来科技发展中一个永恒的课题。


SSI公告全文:

安全超级智能公司 (Safe Superintelligence Inc.)
超级智能已经近在咫尺。
构建安全的超级智能是我们这个时代最重要的技术问题。
我们已经启动了世界上第一个直击目标的SSI实验室,目标和产品只有一个:安全的超级智能。
它叫做安全超级智能公司。
SSI是我们的使命、我们的名字和我们全部的产品路线图,因为这是我们唯一的关注点。我们的团队、投资者和商业模式都齐心协力实现SSI。
我们将安全性和能力并行,视为需要通过革命性工程和科学突破解决的技术问题。我们计划在确保安全性始终优先的情况下尽可能快地提高能力。
这样,我们就能在平静的状态中扩展。
我们的专注意味着不会因管理事务或产品周期而分心,我们的商业模式意味着安全性和技术进步都不会受到短期商业压力的影响。
我们是一家美国公司,在帕洛阿尔托和特拉维夫设有办事处,这些地方是我们的根基所在,也能在这些地方招募到顶尖的技术人才。
我们正在组建一个精简的、出类拔萃的世界顶尖工程师和研究人员团队,只专注于SSI。
如果你是那样的人,我们提供一个机会,让你完成一生的事业,帮助解决我们这个时代最重要的技术挑战。
现在是时候了。加入我们。
伊利亚·苏茨克维、丹尼尔·格罗斯、丹尼尔·莱维
2024年6月19日