大数据文摘出品
作者:刘俊寰
10月31日,由北京智源人工智能研究院主办的2019北京智源大会在国家会议中心开幕,本次大会吸引到了国内外人工智能领域的顶级专家学者参与,他们围绕人工智能基础研究现状及面临的机遇和挑战、人工智能技术未来发展的核心方向等话题,展开了深入研讨。
大会第一天上午,在智源大会上,AI Time举行了第八期“人工智能的‘能’与‘不能’”的主题辩论活动,中国科学院院士张钹,加州大学洛杉矶分校教授朱松纯,北京大学教授黄铁军,中国人民大学教授文继荣一起论道了“人工智能的能与不能”的相关问题。
数据跟知识结合起来,才能做出更好的系统
现场展示了几部电影片段,包括《超能陆战队》的智能诊断、《复仇者联盟》的手势交互、《流浪地球》的同声传译、《速度与激情》的无人驾驶、《Her》的情感伴侣,尽管电影中的人工智能技术已经相当成熟,但是现实中其实离我们还很遥远。
就上述五项技术的实现难度而言,张钹认为,手势交互相对容易一点,智能诊断其次,然后是同声传译、自动驾驶和情感伴侣,情感伴侣肯定是最难的。
首先大体上说现在人工智能能解释什么问题,做人工智能只有两个资源,一是知识和经验,一个是数据。人工智能最早的模型是以知识和经验为基础的推理模型,这个做得不是很成功,后来发现机器在运用知识方面与人类的差距也很大。
另外一条路就是利用数据,利用数据能得到意想之外的成就,计算机使用数据的能力远远超过人类,比如现在基于大数据的深度学习。现在大多数的应用都是使用的这些技术,在图像识别、语音识别、自然语言处理上取得不错的成果。
但同时,也必须看到这个成果的局限性,它应用的场合必须符合以下四个条件,因为这个技术有四大缺点:不可靠、不可信、不安全、难以推广,这就是单纯依靠数据驱动造成的问题。
- 信息基本上是完全确定的
- 环境基本上是结构化的,如果有变化这个变化是可预测的
- 限定领域
- 关键重要的地方不能用
现在单靠数据,在一些应用场景下是可以解决一些问题,但是更多场景下是不能解决问题的。为了克服这些缺点,需要加入知识。
比如同声传译,现在一般情况下机器翻译的问题不大,但是这种系统在某些场景下不可避免地会发生重大错误,因为它缺乏知识和常识。“说你行的人行”这句话,最好的翻译系统也会翻得一塌糊涂。自动驾驶也是这样,在关键地方信不过,经常会出一些大错。
下一步最重要的是把数据跟知识结合起来,这样才能做出好的系统。
朱松纯对张钹的观点表示认可,手势交互是可能实现的。大白决定于感知器,同声翻译和自动驾驶都是非常危险的东西,特别是用在外交上,是不可靠的。情侣是很有趣的现象,将来人工智能在这个方面可以超过人。
从整个能和不能来看,如果把任务定义清楚,也有数据,基本上都可能做。像百度、谷歌的研究人员,他们做出成果是基于对特定任务的定义,如果定义新的任务,所有的人工智能都不能了。这是核心的分水岭,就是你能够做多大的任务、多少任务、能不能自己定义任务。
有一个词叫任务陷阱。现在所有刷榜的数据库,这就是陷阱。2008年在一个会议上,参会人员把计算机视觉说成图像的分类问题,大家就被引到了任务陷阱里去了,这是非常危险的。
文继荣基本同意两位老师的观点,他指出,手势交互其实更接近于通用的人工智能助手,大白的实现要更容易一点,因为大白只是医疗方面的信息助手。接着应该是交互系统和同声传译。自动驾驶对容错性的要求太高了,除了技术难度以外,还要从用户可接受角度考虑。情感伴侣应该是最难的,这里面包含了更复杂的东西,甚至涉及到了意识问题。
黄铁军则认为,实现难度无法排序,但是这五个功能都能实现,甚至包括情感伴侣。但是这个机器与今天的计算机不同,它是一个全新的系统,就像类脑智能,构造出像人一样的的神经系统,只不过是电子版本的机器,它能在复杂环境里训练。
观众票选最难实现的统计数据
观众票选最易实现的统计数据
针对观众的票选结果,朱松纯打趣道,估计是科大讯飞的广告做得好,让大家都以为同声传译已经成为现实了。但是,如果看翻译结果的话,还是有很大差距的。虽然很支持科大讯飞的工作,但科学是科学,他们做不了,这是现实。
实现人工智能的基本要素
针对计算机能否会有意识,张钹认为,目前不可能进行科学的讨论,现在对人类的意识了解得还太少。不管是持哪方主张的人,都拿不出充分的科学证据来支持观点。这个问题不应该在科学领域里争论,更应该在哲学领域里讨论,哲学的讨论就是针对科学解释不了的、解决不了的问题。
智能这条路是唯一的途径,还是存在其他办法?现在的智能,包括意识在内,是通过几亿年的进化产生的,除了进化的路以外,会不会还有别的路?如果有别的路,是否就可以通过技术的不断提高来解决这个问题?这些都可以放到哲学领域内讨论。
黄铁军和张钹的观点几乎完全不同,他指出,产生自我意识的必要条件,第一要有类似甚至超越人类神经系统的物理载体,最简单的是把人的神经系统做一个拷贝,做一个电子的身体;第二要有一个复杂的环境,而地球就是一个很复杂的环境。有了这两个条件,就可以进行交互、尝试,然后不断地去训练。在这个过程中会发生很多种可能性,包括自我意识的产生。
但是这个问题就算是在哲学领域内讨论也是空谈。我们能做的是在技术领域去讨论、去实现。比如宋朝发明指南针的时候,没人说有种东西能够沿着地磁方向指南,那时候科学还不存在,人们也不知道电磁学,但是这并没有影响指南针的发明。
做出有自我意识的系统,前提是先去做这个系统,而不是解释人智能背后的原理问题。这不是科学问题或者哲学问题,而是技术问题。
张钹认为,哲学家肯定会去讨论这个问题,这也是无法阻止的,而且讨论是有益处的,哲学讨论出来的思想是很有启发性的。
黄铁军指出,对于哲学家参与讨论是赞同的,但是讨论的是如果技术走太快,捅出篓子来如何解决的问题,哲学家提出的路线就不太现实了。
如果抛开意识形态,对于一个具体的任务,能够自动分解之后用机器学习解决,以实现技术层面的人工智能,朱松纯不否认这种路线,这与人脑的分区是相同的,至于怎么综合起来达成共识,还需要一个自洽的解释,这有另外的方法来做。
黄铁军则对此持否定的回答,他说,只要读一下图灵的论文就知道答案,1936年的文章说的很清楚,正是因为不可计算理论的奠基才有了计算机。结论很清楚,即不可能设计一台机器把所有可计算的过程来自动完成,也不存在一个机器能分配任务。
文继荣首先针对人工智能程序和普通程序作出区分,即程序是否具有人的特质,包括以下几个方面:
- 灵活性,处理各种不确定性
- 自适应性,能够适应不同的变化,能够自学习
- 可解释性,可解释性背后的含义是人的理性
- 创造性
- 自主性
然后,他分享了自己对人工智能的一个分级:
Level 0:能够完成固定逻辑任务,就是预定义逻辑任务,也普通程序。
Level 1:能完成特定领域任务,不管用大数据方法或其他方法,它可以处理不确定的输入、可泛化,像人脸识别。
Level 2:可以对结果行为可解释,能够从相关到因果。
Level 3:通用人工智能的东西,这就需要具有多领域的自适应性,并且尝试推理等等,能够在多个领域来自由游走。
Level 4:系统具有创造性,AI产生的一些新的、有意义的东西,比如真的能够写出一部小说了,但是这个东西必须是要有意义的。
Level 5:具有自我意识。
朱松纯认为,这个分级在各个垂直应用行业是非常有意义的,这能使目标和任务变得非常清楚。但是如果是通用的人工智能,整体的分级目前还很难,因为到底包含有多少个模块和功能,在整体的框架和维度没有说清楚之前,可能会引起很大的争论。
更简单的情况,可以把它说成智商。比如,智商有多少维度,为什么我们测人的智商是从0到150,这就是个分级,人也可以分级。为什么人类比动物聪明?为什么有的人比较聪明?天才是为什么?天才到底是因为什么变成了天才?数学天才还是下棋天才?这就是多种维度,这些维度在大的空间里面是有限的还是无限的?任务的边界在哪儿?智能的边界在哪儿?智能极限在哪?
原来图灵有一个停机问题,其实学习也存在停机问题,学习的极限就是停机问题。是什么东西决定了智商的极限、学习的极限,这可以作为一个科学的问题来研究。
张钹对朱松纯的观点表示赞同,对于具体问题要进行分级,这对于研究是有意义的,比如自动驾驶现在分成五级,这样就知道这个阶段究竟可以做到什么程度。但对于整个的智能进行分级很难,这涉及到了很多方面,而且分级的可能性也比较小,特别是对于通用人工智能,要有明确的定义。
机器和人要形成互补
正如朱松纯所说,现在数据的开放共享,甚至是竞赛,都有可能是陷阱,而这对未来的AI发展可能造成障碍。
黄铁军指出,这不是阻碍,是一个重要的阶段。人从单细胞生物进化到现在,也是大数据训练出来的结果,广义上讲,大数据是统一的。现在能收集这么多数据变成标好的图像,这只不过是一种比较僵化的大数据,从大的思路上讲是必要的,如果没有足够的数据和环境刺激,很难做出更强的智能。
张钹认为可以利用大数据和计算机处理数据的能力,发展出比人类更强的机器。机器不一定要和人类完全一样,它在某些方面比人强,在某些方面比人弱,这才是被需要的,人和机器形成互补,以建立和谐的人和机器共同体。
隐私与伦理需要交给公众去选择和决定
第二个“不能”的“能”和第一个“能”意思也还不一样。现在随着AI技术发展,能通过视频自动观察学生上课的专注度,也能在视频中就抓取到个人信息。而在美国加州,5月份通过了网络隐私法保护,禁止在任何公共场所使用拍照的人脸,甚至包括警察抓小偷。
关于隐私是否应该开放以做出更多技术发展,黄铁军认为,人工智能技术嵌入社会生活,过程中一定需要适应过程,这个适应过程是双向的,既要技术适应人类社会,也需要人类去适应技术。
张钹指出,这属于人工智能管理问题,涉及到三个层面:误用了人工智能的技术、滥用人工智能技术、利用人工智能技术进行国家与国家或集团与集团的对抗。这三个层面是不一样的,应该采取不一样的治理方法。
朱松纯认为,隐私被暴露意味着对自由空间的侵犯,这个问题应该由社会来回答和决定。就像伦理道德一样,这是一个相对的概念,是在人和人交流过程中达成的共识,这也是随着时间在改变的。像人脸识别系统,在机场、火车站运用非常方便,但这也需要公众自己选择,公众如果通过法律不让你这么做,那就不能做。
文继荣指出,在中国可以看见人脸监控还是比较普遍的,跟这两个国家的特点有关系。西方更强调个人自由,中国更强调集体主义。也不能简单说,加州不让做,中国就一定要效仿。但是这其中边界要交给人民去决定。另外,人工智能要可控,现在深度学习黑箱很麻烦,如果其中的可解释性、可控性解决不了,这才是真正危险的东西。
最近各个国家、地区都相继发表了AI宣言,北京也发布了《人工智能北京共识》,黄铁军对此展开了详细讨论,他说,发展人工智能的宗旨是让它造福、服务于人类。在现阶段或者在未来的一段时间之内,我们确实要考虑到人的利益、幸福感,但是从长远来看,还是要跳出以人为中心的思维惯性,来考虑智能在地球、宇宙的意义下的未来。那个时候就不只是智能怎么服务于人,而是人和智能如何共处、共融,如何深入发展的问题。
人工智能的发展同样离不开伦理,在伦理以及AI发展的边界的问题上,张钹认为,这是一个很复杂的东西,一两句话说不清楚,人工智能的治理的几个层面,其中就涉及到伦理,具体到技术问题,还得根据具体场景界定。
朱松纯也认为这个问题很难,现在大概花不到1000美金就可以制造杀人武器,无人机和摄像头有人脸识别就可以开枪了,这都是非常危险的,肯定也无法阻止。既然这个工具产生了,他拿这个工具砸银行或者干什么是人的事情,在这个方面科学家阻止不了他,只能通过社会去做。
将来最好的办法是计算机自身能够形成一定的伦理,它能够判断这么去做会造成的社会后果是什么,这种能力其实是一般人基本的东西,但如果机器不具备这种能力,不去考虑后果的话,每个机器人都是潜在的威胁。
AI Time由一群关注人工智能发展的青年人创办,旨在发扬科学思辨精神,邀请各界人士对人工智能理论、算法、场景、应用的本质问题进行探索,展开辩论,碰撞思想,打造人工智能知识分享的策源地和聚集地。大数据文摘作为合作媒体将长期合作报道。
感兴趣的小伙伴还可以点击下方链接,查看前七期的内容:
- 你真的明白人机交互与智能吗?| 清华AI Time
- 技术界与翻译界的交锋:机器翻译离我们还有多远? | 清华AI Time
- 自动驾驶是近在咫尺还是遥遥无期? | AI Time
- 数据共享的核心在定价,数据开放与隐私保护探讨 | AI Time
- 清华张钹院士、人大文继荣院长激情辩论:人类对AI的爱痴忧惧
- 要强大的“黑匣子”,还是“可解释”的机器学习?
- 知识图谱的构建主要靠人工还是机器?