超级AI不会主宰人类,但人工智能必须开源!LeCun最新采访引全网300万人围观

2023-11-27 16:29:21 浏览数 (1)

新智元报道

编辑:编辑部

【新智元导读】LeCun最新访谈视频中,再次坦露了自己对开源AI的看法。超级AI终有一天会诞生,但不会主宰人类。

LeCun一段近5分的视频,引起了全网300 万人的关注。

视频中,他再次重提对开源人工智能的几点看法:

- 未来将出现超越人类智能的人工智能

- 这些人工智能将受到我们的控制

- 它们不会成为我们的主宰,也不会对我们构成威胁

- 它们将成为我们与数字世界互动的中介

- 因此,这些人工智能需要是开放的平台,这样每个人都能参与进来,帮助它们学习和优化。

对此,马斯克表示,我们的数字上帝将以csv文件的形式出现。LeCun回应道,如果它是开源的,无论你选择什么格式,都会有导入过滤器。

COSS创始人Joseph Jack调侃道,我们能不能直接让LeCun担任AI总统,然后就此结束今天的讨论。

以下是视频中,LeCun个人提出的观点。

智能与统治毫无干系,开源是必然

在未来的某个时刻,也许是几十年后,我们将拥有智能与人类相媲美的AI系统。

因为人类在不同领域有各自的专长,这些AI系统不仅同样如此,而且在人类擅长的领域中,甚至可能都要比人类聪明。

现在你可能会想,「天呐!这样的系统会不会掌控世界?」

No!智能与统治之间并没有必然的联系。

就拿人类来说,人类中有一部分人有控制欲,但并非人人都有,并且,想要统治的并不是我们当中最聪明的人。

其实,国际政治舞台上的各种事件都在证明这一点。这背后的原因可能来自自然进化,不够聪明的人需要依赖他人,因此也会应影响他人,但聪明的人可以独立生存。

第二个观点是,我们习惯于比自己更聪明的人一起工作。对于我来说,我曾经领导过的一个研究实验室,只雇佣比我聪明的人,与聪明的人一起工作的感觉很棒。

我们与未来AI助手的关系,它会在日常生活中帮助我们。

想象一下,未来10-20年,AI助手会在日常生活中帮助我们,而且可能会比我们更聪明。但它们的存在,是为了让我们更聪明。

我们命令它们,便会听命于我们。并不是因为它们聪明,就想要统治。

而这种统治欲其实源于,我们是社会性物种的本性。因此,我们需要有能力去影响他人。这也就是统治和服从的来源。

我们是一个有等级秩序的社会性物种,这也是进化论赋予我们的特征,像黑猩猩、狒狒狼等社会性动物一样。

但即便是猩猩这样的物种,智力接近人类,却没有被赋予控制他人的特征。

因此,控制和智能完全没有关系。

我们可以设计一个极其智能但不具备统治欲的系统,且非常聪明,也就是说,你给它们一个目标,就能帮你实现。

设定目标由我们人类来做,而这些系统会制定子目标。至于如何做到这一点的技术问题还没有解决,我们只是在想象未来的事情。

包括我之前谈到的「目标驱动的AI」,这只是未来。

想象一下,如果未来我们与数字世界、信息世界所有交互都是通过AI智能体来完成。

这些AI智能体将成为所有人类知识的宝库,与一个能进行对话和推理的「超级百科」类似,但知识比维基百科更丰富。

这将成为一个像现在的互联网一样的公共平台,它必须是开放的,而不是专有的,因为掌握在少数公司的超级AI将是非常危险的。

如果少数人控制着超级AI,便可以左右每个人的观点、文化等等。

所以,唯一的解决方案就是开源基础架构。这也是Meta开源Llama2的原因之一,因其是基础设施的一部分。

在此之前,Meta还发布了PyTorch,一个构建AI系统的软件系统,ChatGPT就是基于PyTorch构建的。

因此,这些系统必须是开源的,并且训练方式也必须是众包的,以确保它们成为所有人类的知识库。

这样,所有人类都可以为其中做贡献,而不是仅仅贡献给OpenAI、Meta或其他公司的专有系统。

它必须是开源的,无论听起来有多危险,但这是未来的必然趋势。

我们需要世界模型

对于超级AI的发展,LeCun一直以来都站在开源队列中。

就在本月初,他曾号召1700 位人工智能领域的专家和研究人员签署了一封联名信,呼吁AI更加开放。

在LeCun看来,当前自回归模型的能力远远不及人类,甚至都不如阿猫阿狗。

当被TED负责人问道,有没有一个理论能够证明人类大脑,而不是LLM能够推理。

LeCun表示,LLM以每个token的固定计算量生成答案。它们没有办法投入更多(可能是无限的)「时间和精力」来解决难题。这非常类似于人类快速和潜意识的「系统1」决策过程。

真正的推理和计划将允许系统搜索解决方案,使用潜在的无限时间。这种迭代推理过程更类似于人类有意识「系统2」。

这就是人类和许多动物在新情况下找到新问题的新解决方案的原因。

一些人工智能系统具有规划能力,即玩游戏或控制机器人的系统。AlphaGo、AlphaZero、Libratus和Cicero等游戏AI系统具有规划能力。与动物和人类相比,这些系统的规划能力仍然相当有限。

为了实现更通用的规划能力,人工智能系统需要拥有一个「世界模型」,即一个可以预测动作序列后果的子系统:给定时间t的世界状态,以及我可以采取的想象行动,在时间t 1时世界的合理状态是什么。通过世界模型,系统可以计划一系列行动以实现目标。

如何建立和训练这样的世界模型仍然是一个悬而未决的问题。更复杂的是如何将一个复杂的目标分解为一系列子目标。

这将实现分层规划,这是人类和许多动物可以毫不费力地做到的,但仍然完全超出了人工智能系统的能力范围。

网友热议

马库斯看后表示,他的每一句话中非常肯定,给人留下了深刻的印象。但如果他的一些前提(再次)被证明是错误的怎么办?

更多智能并不意味着更多危险。人工智能的威胁取决于编写损失函数的人是谁。

LeCun的演讲金句已被画出。

参考资料:

https://twitter.com/ylecun/status/1728515719535489484

https://www.youtube.com/watch?v=EGDG3hgPNp8

0 人点赞