Ilya 官宣新公司,主打“恶意”竞争!先拉不缺钱的技术大佬入伙,不盈利也要赢过 OpenAI !

2024-06-27 18:27:08 浏览数 (1)

整理 | 华卫

昨晚,OpenAI 的联合创始人、前首席科学家 Ilya Sutskever 宣布,其正在创办一家专注于安全领域的新人工智能公司 Safe Superintelligence Inc. (SSI)。Sutskever 透露,该公司的目标和产品只有一个:创建安全而强大的人工智能系统。“超级智能触手可及。构建安全的超级智能是我们这个时代最重要的技术问题。”

根据官方的公告介绍,SSI 被描述为一家 "将安全和能力结合在一起 "的初创公司,在快速推进其人工智能系统的同时仍能将安全放在首位。公告还提到了 OpenAI、谷歌和微软等公司的人工智能团队经常面临的外部压力,表示 SSI 的 "单一关注点 "使其能够避免 "管理费用或产品周期的干扰"。

"我们的业务模式意味着安全、保障和进步都不受短期商业压力的影响,这样我们就可以安安心心地扩大规模"。据 Sutskever 介绍,SSI 的第一个产品将是“安全的超级智能”,在此之前,该公司不会做任何其他事情。

然而,对于 SSI 的运营理念,有一些网友提出了不同角度的犀利质疑。一方面是其追求的安全准则:“我们离‘超级智能’还差得很远,安全是重中之重吗?如果莱特兄弟专注于安全,我不确定他们会飞得很远。”

另一方面是训练和人才资源:“如何设法支付真正有天赋的人工智能研究人员可以从其他更商业化的公司那里获得的薪酬待遇?也许可以找到有意识形态驱动或已经在经济上独立的人,但至少需要在合理的时间范围内给出对未来收入的承诺和希望,以整合真正能够与大型人工智能超级实验室竞争所需的各种资源,比如计算和 GPU 数据。”

虽然目前尚不清楚谁将为这个新企业的发展提供资金,也不清楚其最终的商业模式究竟是什么,但 Sutskever 表示“筹集资金不会成为公司的问题”,并正在向业内感兴趣的人传达一个信息:SSI 将在美国和以色列设立总部,目前正在招聘。现在,在 X 社交平台上,已有一位 @signulll 的网友,声称自己刚刚加入 SSI。

除 Sutskever 之外,SSI 还由苹果前 AI 负责人、Y-Combinator 合伙人、Cue 联合创始人 Daniel Gross 和曾在 OpenAI 担任技术人员的 Daniel Levy 共同创立。

“早有准备”的创始团队,下一步和 xAI 合作?

安全以外,对于新公司,Sutskever 似乎也做了更多产品竞争能力方面的考量。

Sutskever 认为,在人工智能领域占据主导地位的大型语言模型,将在安全超级智能系统中发挥重要作用,但它的目标是实现更强大的功能。他表示,对于目前的系统,"你和它说话,进行对话,然后就完成了";SSI 的人工智能系统在准备就绪后,将比目前的大型语言模型更具通用性和扩展性。

据了解,SSI 的创始人之一 Levy 在 OpenAI 时就以训练大型人工智能模型而闻名。并且,他也是在 Sutskever 离开 OpenAI 之后几天离职的研究人员之一。读书时期,Levy 是斯坦福大学计算机科学专业的博士生,研究方向是机器学习、优化和隐私;硕士期间,他在斯坦福大学研究概率模型和强化学习。毕业后,他还曾在 Facebook 和谷歌工作过。

而 SSI 的另一位创始人 Daniel Gross,有着更加丰富的研发、创业与投资经验。不仅与他人共同创立了 Cue,曾担任 Y-Combinator 的合伙人,并且是 Uber、Instacart、Figma、GitHub、Airtable、Rippling、CoreWeave、Character.ai 等公司的著名技术投资者,还在苹果领导了多年的人工智能工作。

今年 3 月,Gross 宣布投资了一家 AI 芯片公司 MatX。4 月,他还表示自己回归了搜索领域,并领导 Perplexity 的最新一轮融资。

值得一提的是,在前不久的 WWDC24 大会上,OpenAI 宣布与苹果公司建立合作伙伴关系,将 ChatGPT 深度集成在苹果产品矩阵中,包括最新的 iOS、iPadOS 和 macOS。这将影响全球 20 多亿活跃设备, OpenAI 的用户覆盖范围得以进一步地扩大。当时,这一消息还引起了不少人对于数据及隐私安全的担忧与热议,包括埃隆·马斯克(Elon Musk)。

对此,也有网友表示,SSI 接下来应该去和埃隆·马斯克去年成立的人工智能公司 xAI 合作。

Ilya 的数年安全积累“变现”了

据外媒报道,Sutskever 这样详细阐述新公司 SSI 的方法:“我们所说的安全,是指像核安全一样的安全,而不是像'信任和安全'一样的安全;OpenAI 的核心安全原则之一是成为信任和安全的先驱。”

在 OpenAI 时,Sutskever 是该公司提高人工智能安全性工作中不可或缺的一员。很长一段时间以来,Sutskever 一直在关注人工智能安全的棘手问题。

去年,Sutskever 带头推翻了 OpenAI 首席执行官 Sam Altman 的职务。但几天后,Altman 在没有 Sutskever 的新董事会领导下重返公司。今年 5 月,Sutskever 和前 Alignment 主管 Jan Leike 都宣布离开 OpenAI。

据了解,Sutskever 和 Leike 曾共同领导 OpenAI 的 Superalignment 团队。该团队不仅致力于使人工智能的行为和目标与人类的价值观和目标保持一致,还致力于防止超级智能人工智能 "失控"。而他们的同时离职,可能预示着 OpenAI 可能并不重视安全问题。此前 OpenAI 的政策研究员格雷琴 - 克鲁格(Gretchen Krueger)在宣布离职时,也提到了安全问题。

离职后,Leike 还在社交媒体上连续发帖指责 OpenAI:"安全文化和流程已经被闪亮的产品所取代","我一直不同意 OpenAI 的做法。我与 OpenAI 领导层就公司的核心优先事项产生分歧已经有一段时间了,直到我们最终达到了一个爆发点”。当时,Altman 和 OpenAI 总裁 Greg Brockman 回应了 Leike 的指控,承认还有更多工作要做,他说:“我们非常认真地对待我们在这里的角色,并仔细权衡对我们行动的反馈。

Sutskever 在辞职时,看似与 Leike 的立场不同,表示他 "相信 OpenAI 将在 Altman 的领导下,打造出既安全又有益的 AGI",但又暗示其将独自启动一个新项目,而预热的大概就是现在官宣的新公司 SSI 了。

谈及 SSI 的成立,Sutskever 表示,他花了数年时间考虑安全问题,并且已经想到了一些方法。“在最基本的层面上,安全的超级智能应该具有不会大规模伤害人类的特性。”Sutskever 称,“我们的最终目标是创造一个“安全的超级智能”,它不会伤害人类,并将基于自由和民主等价值观运作。

结语

事实上,这已经不是 OpenAI 的员工第一次脱离 ChatGPT 制造商,去制造 "安全 "的人工智能系统了。2021 年,该公司前人工智能安全主管 Dario Amodei 分拆出了自己的初创公司 Anthropic。据知情人士透露,Anthropic 已从亚马逊融资 40 亿美元,还从风险投资者那里融资数亿美元,估值超过 180 亿美元。

目前,SSI 虽然没有对外披露公司的财务支持者以及迄今为止筹集的金额,但 SSI 的三位创始人表示,开发安全的超级智能——一种可以取代人类认知能力的机器智能是该公司的“唯一重点”。该计划将不受投资者收入要求的限制,例如呼吁顶尖人才加入。

也就是说,SSI 将是一个纯粹以研究为重点的组织,而不是 OpenAI 目前的商业模式,其中包括其人工智能模型的商业化。

令人感叹的是,OpenAI 成立最初宣布的使命与 SSI 类似,旨在做一个创造造福人类的超级智能人工智能的非营利性研究实验室。现在,虽然 Altman 声称这仍然是 OpenAI 的指导原则,但在他的领导下,该公司似乎已经变成了一家快速增长收入为主的企业。

有网友对 SSI 抱有高期待,希望其能成为一个做开源 AI 产品的公司。也有网友调侃到,“Sutskever 干嘛要创办一家新公司,而不是直接加入 Anthropic 或 Google?是否应该将此解释为含蓄地对他们投出了不信任票?”

参考链接:

https://www.theverge.com/2024/6/19/24181870/openai-former-chief-scientist-ilya-sutskever-ssi-safe-superintelligence

https://time.com/6990076/safe-superintelligence-inc-announced/

https://www.ft.com/content/68cb9b1f-c3bb-4a90-a8b6-17b7e3ecd234?sharetype=gift

https://slashdot.org/story/24/06/19/1823253/openai-co-founder-ilya-sutskever-launches-venture-for-safe-superintelligence

0 人点赞