OpenAI宫斗大戏,超级对齐团队解散,安全团队专家吐糟克扣算力

2024-05-20 14:54:06 浏览数 (1)

在过去的半年中,OpenAI内部经历了一场剧烈的“宫斗”,结果是其关键的“超级智能对齐团队”宣告解散。这一变化标志着团队创始成员及其领导核心的彻底离散。首席科学家伊利亚·苏茨克沃(Ilya Sutskever)和团队成员詹·莱克(Jan Leike)均于本周宣布离职。

苏茨克沃,作为OpenAI的联合创始人和首席科学家,自2015年加入公司以来,一直是公司技术创新和研发的核心人物。他在公司的早期阶段对ChatGPT和Dall-E图像生成器的开发起到了关键作用。他的离职,以及随之而来的研究总监雅各布·帕乔奇(Jakub Pachocki)的任命,预示着公司战略方向可能的重大调整。

在去年11月的公司内部动荡后,苏茨克沃的公开露面骤减,他的离职似乎是一种避免更多内部冲突的方式。据报道,苏茨克沃计划启动一个全新的项目,尽管具体细节尚未公开,但外界普遍猜测该项目可能与生成式AI技术相关。

詹·莱克,作为超级对齐团队的另一位关键人物,同样在本周宣布辞职。据悉,莱克与公司高层在多个重要问题上存在长期分歧,特别是在公司的安全文化和流程优先级上。莱克的离职进一步暴露了公司内部对于AI发展方向和重点的根本性分歧。

本周五,OpenAI宣布“超级智能对齐团队”正式解散,其研究工作将被并入公司的其他研究小组中。这一变动引发了外界对OpenAI未来研究重点和安全承诺的广泛关注和讨论。

公司方面表示,这一系列变动是对内部战略重新评估的结果,旨在更好地整合资源和优化研发流程。然而,从外部观察,这些变动不仅影响了公司的研发方向,也可能影响到整个行业对AI技术安全性的关注和探讨。

苏茨克沃和莱克的离职,以及超级对齐团队的解散,标志着OpenAI在一段动荡期后的重大转变。这些变化可能会对公司未来的技术发展和市场定位产生深远影响,同时也对AI领域的其他参与者提出了新的挑战和问题。

前OpenAI的超级对齐研究团队负责人确实对公司的一些决策表示了批评。特别是,他们担心公司在追求引人注目的产品和商业化的同时,可能忽视了人工通用智能(AGI)的安全问题。这些担忧包括对如何有效管理和对齐高级AI系统的疑虑,尤其是在技术快速进步的背景下。

但是也有观点认为,尽管OpenAI在对齐超级智能AI方面投入了大量资源,这种努力可能仍然存在挑战和不确定性。批评者指出,当前的技术可能还不足以解决所有潜在的安全问题,而且公司在推动其AI技术的同时,对于其安全性的监管和对齐仍需持续关注和改进

0 人点赞