作者|王玥
编辑|陈彩娴
5月30日,世界级红人埃隆·马斯克(Elon Musk)发了一条推文,称:
2029年是关键的一年,如果那时候我们还没有实现通用人工智能(Artifical General Intelligence,AGI),我会觉得很奇怪。火星上的人们也一样(觉得奇怪)。
马斯克发推不久,知名人工智能科学家、纽约大学心理系教授 Gary F. Marcus 立即写了一篇博文叫嚣马斯克,从五个方面向马斯克「科普」了通用人工智能的知识,提出自己认为2029年不可能实现 AGI 的原因。
对于Gary Marcus的叫板,马斯克还没回复。
圣达菲研究所的人工智能专家梅兰妮·米切尔(Melanie Mitchell)建议把赌注放在longbets.org网站上,Marcus称,只要马斯克愿意打赌,自己就欣然赴约。
以下是Gary Marcus反驳马斯克的五个角度,AI科技评论作了不改原意的整理如下:
1
马斯克是个「大话」预言家
第一,马斯克对时间的预测总是不太准确。
2015年时,马斯克说距离真正的自动驾驶汽车出现还有两年时间;从那以后他每年都说同样的话,但真正的自动驾驶汽车到现在还没出现。
2
马斯克不关注边缘案例的挑战
其次,马斯克应该更多地关注边缘情况(也就是异常值,或不寻常的情况)的挑战,并思考这些异常值对预测可能意味着什么。
因为长尾问题,我们很容易认为 AI 问题比实际情况要简单得多。我们手上有大量的关于日常事务的数据,当前的技术很容易处理这些数据,这就会误导我们,给我们一种错误的印象;而对于罕见的事件,我们得到的数据非常少,且目前的技术很难去处理这些数据。
我们人类拥有大量的不完全信息推理的技巧,也许可以克服生活中的长尾问题。但对于目前流行的、更多依赖大数据而非推理的人工智能技术来说,长尾问题是一个非常严重的问题。
2016年,在一篇题为“Is Big Data Taking Us Closer to the Deeper Questions in Artificial Intelligence?”的采访中,Gary Marcus试图就此发出警告。他当时是这么说的:
尽管有很多关于人工智能的炒作,也有很多资金投入人工智能,但我觉得这个领域正朝着错误的方向发展。在深度学习和大数据这些特定的方向上,目前有很多唾手可得的成果。人们对大数据以及大数据现在给他们带来的东西感到非常兴奋,但我不确定它是否会让我们更接近人工智能中更深层的问题,比如我们如何理解语言或我们如何推理世界。
…
再想想无人驾驶汽车。你会发现在一般情况下,无人驾驶汽车是很棒的。如果你把它们放在帕洛阿尔托天气晴朗的地方,车辆性能会非常棒。但如果你把车辆放在下雪或下雨的地方,或者以前没见过的地方,这些汽车就难免出问题。Steven Levy写了一篇关于谷歌自动汽车厂的文章,文章中他谈到了2015年底的研究让他们终于让系统能够识别树叶。
系统确实能识别叶子,但对于不常见的东西,就不能获得那么多的数据。人类之间可以用常识来沟通。我们可以试着弄清楚这个东西是什么,它是怎么到那里的,但是系统能做的只是记忆东西,这才是真正的限制。
图注:特斯拉自动驾驶撞上价值300万美元的喷气式飞机
意想不到的情况一直是当代人工智能技术的祸患,而且可能会一直是,直到真正的革命出现。这就是为什么Marcus保证马斯克不会在今年或明年推出L5级别的自动驾驶汽车。
异常值并不是完全无法解决,但仍然是一个重大问题,迄今还没有已知的鲁棒的解决方案。Marcus认为人们必须摆脱对深度学习等现有技术的严重依赖。距离2029年还有7年,7年是很长的一段时间,但是如果要在这个十年结束之前实现AGI,这个领域就需要在其他想法上进行投资。否则,仅仅是异常值就足以使实现AGI的目标失败。
3
通用人工智能范围很广
马斯克需要考虑的第三件事是,AGI是一个涉及面很广的问题,因为智能本身的涉及面很广。Marcus在此处引用了Chaz Firestone和Brian Scholl的这句话:
世上并不只有一种思维方式,因为思维并不是一个整体。相反,思维是可以分为部分的,而且其不同部分以不同的方式运作:“看到颜色”与“计划度假”运作的方式不同,而“计划度假”与“理解一句话”、“移动肢体”、“记住一件事”或“感受一种情绪”都不同。”
例如,深度学习在识别物体方面做得相当不错,但在计划、阅读或语言理解方面做得差一些。这样的情况可以用下图表示:
目前的AI在某些感知方面做得很好,但是在其他方面仍需努力。即使在感知中,3D感知仍然是一个挑战,场景理解也没有解决。对于常识、推理、语言或类比等几个领域,仍然没有任何稳定或值得信赖的解决方案。事实是,这张饼状图Marcus已经用5年了,AI的情况却几乎没有改变。
在Marcus发表于2018年的文章“Deep Learning: A Critical Appraisal”中,他总结道:
“尽管我提出了这些问题,但我不认为我们应该放弃深度学习。
相反,我们需要重新定义深度学习:深度学习不是一种通用溶剂,而应该是一种工具,除了这种工具,我们还需要锤子、扳手和钳子,更不用说凿子、钻头、电压表、逻辑探头和示波器。
四年过去了,许多人仍然希望深度学习能成为万能药;可这对Marcus来说仍然是不现实的,他仍然认为人类需要更多的技术。实事求是地说,7年可能不足以发明这些工具(如果它们还不存在的话),也不足以将它们从实验室投入生产。
Marcus向马斯克提出2018年“量产地狱”(马斯克认为Model 3电动轿车量产阶段犹如地狱般煎熬,并称之为“量产地狱” )的情形。在不到十年的时间里要对一套以前从未完全集成过的技术进行这样的整合,要求会非常高。
Marcus称,「我不知道马斯克打算把Optimus(特斯拉的人形机器人)打造成什么样,但我可以保证,通用家用机器人所需要的AGI远远超过一辆汽车所需要的,毕竟汽车无论是在公路上开还是在马路上开,或多或少都是差不多的。」
4 复杂的认知系统尚未打造
马斯克需要意识到的第四件事是,人类仍然没有一个适当的方法论来构建复杂的认知系统。
复杂的认知系统有太多的活动部件,这通常意味着,制造无人驾驶汽车等东西的人最终就像在玩一个巨大的“打地鼠游戏”,往往刚解决了一个问题,又出现了另一个问题。一个补丁接一个补丁有时能派上用场,有时则无效。Marcus认为不可能在不解决方法论问题的情况下得到AGI,而且他认为目前还没有人提出好的建议。
使用深度学习进行调试非常困难,因为没有人真正理解它是如何工作的,也没有人知道如何修复问题,以及收集更多数据和添加更多层等等。大众所知道的那种调试在经典编程环境中并不适用;因为深度学习系统是如此不可解释,所以人们不能通过相同的方式思考程序在做什么,也不能指望通常的消除过程。相反,现在在深度学习范式中,有大量的试错、再训练和重新测试,更不用说大量的数据清洗和数据增强实验等等。Facebook最近的一份报告坦率地说,在训练大型语言模型OPT的过程中遇到了很多麻烦。
有时候这更像是炼金术而不是科学,正如下图一样:
图注:“这是你的机器学习系统吗?”
“对,你把数据倒进这一大堆线性代数里,然后到另一边去捡答案。”
“如果答案是错的呢?”
“那就在这一大堆东西上搅和,直到答案看上去正确就行了。”
编程验证可能最终会有所帮助,但同样,在深度学习中还没有编写可验证代码的工具。如果马斯克想赢这个赌约,那他们可能也要解决这个问题,而且得很快解决。
5
打赌标准
马斯克需要考虑的最后一件事是赌约的标准。如果要打赌就要制定基本规则。AGI这个术语相当模糊,就像Marcus前几天在Twitter上说的那样:
我把AGI定义为“灵活而通用的智力,具有可与人类智慧相媲美、或超过人类智慧的智谋和可靠性。”
Marcus还提出要跟马斯克赌一把,并制定具体的基本打赌规则。他和Ernie Davis根据与Metaculus公司合作的人的要求写下了以下五个预言:
- 到2029年,人工智能仍无法在观看电影的同时准确地告诉你发生了什么(Marcus在2014年的《纽约客》杂志上称之为「理解挑战」),也不能解答出这些角色是谁,他们的冲突和动机是什么等问题。
- 到2029年,人工智能仍无法阅读小说并准确回答有关情节、角色、冲突、动机等问题。
- 到2029年,人工智能仍无法在任意厨房里做一个称职的厨师。
- 到2029年,人工智能仍无法根据自然语言规范或通过与非专业用户的交互,可靠地编写超过10,000行无bug的代码。(将现有库中的代码粘合在一起不算数。)
- 到2029年,人工智能仍无法从用自然语言编写的数学文献中任意提取证明,并将其转换为适合于符号验证的符号形式。
如果马斯克(或其他人)在2029年成功打破至少三个预言,那他就赢了;如果只打破了一两个,则不能说AGI能够实现,赢家就是Marcus。
对这个赌约,Marcus跃跃欲试,并对马斯克:“想要打赌吗?赌10万美元怎么样?”
大家怎么看?你们认为谁会赢?(吃瓜)
参考链接:
https://garymarcus.substack.com/p/dear-elon-musk-here-are-five-things?s=w
https://www.ted.com/talks/elon_musk_elon_musk_talks_twitter_tesla_and_how_his_brain_works_live_at_ted2022
https://arxiv.org/abs/1801.00631
https://www.wsj.com/articles/elon-musk-races-to-exit-teslas-production-hell-1530149814