“人工智障” 杂谈

2022-01-12 15:08:02 浏览数 (1)

什么是人工智能

人工智能(Artificial Intelligence),英文缩写为AI,它是研究、开发用于模拟和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

上个世纪50年代一次学术讨论会议上,当时几位著名的科学家从不同学科的角度探讨用机器模拟人类智能等问题,并首次提出了“人工智能”的术语。从此,人工智能这门新兴的学科诞生了。

那场学术讨论会议,就是计算机科学史上著名的达特茅斯会议(Dartmouth Conferences)。

人工智能之父麦卡锡给出的定义:
  • 构建智能机器,特别是智能计算机程序的科学和工程
  • 人工智能是一种让计算机程序能够 “智能地” 思考的方式
  • 思考的模式类似于人类
什么是智能?
  • 智能的英语是:Intelligence
  • 推理、知识、规划、学习、交流、感知、移动和操作物体,等等
  • 智能 ≠ 智力(IQ:智商。比较类似计算机的计算能力)
如何算有智能?
  • 可以根据环境变化而做出相应变化的能力
  • 具有 “存活、生存” 这种最基本的动因
  • 自主能力、自我意识,等等

人工智能的评判标准是什么? 要回答这个问题,就不得不先介绍另一个著名的概念:图灵测试。

图灵测试是著名科学家阿兰·麦席森·图灵于1950年提出的。其内容是,如果计算机程序能在5分钟内回答由人类测试者提出的一系列问题,且其超过30%的回答让测试者误认为是人类所答,则该程序通过测试,表明该程序拥有接近于人类的智能。

就如下图中的情景:

图灵测试的参与者包含一名或多名评委,两名测试者。其中一名测试者是人类,另一名测试者是计算机程序。在评委不能直接看到测试者的情况下,由评委提出若干问题,然后根据回答做出自己的判断。

时至今日,世界上只有一个智能聊天程序勉强通过了图灵测试,它的名字是 尤金·古斯特曼。由此可见,人类距离实现真正意义上的人工智能,还有很长的道路要走。

智能分为人工智能与自然智能两种:

  • 自然智能:人和动物的智能:天生的,非人类制造的,纯天然,无添加。自然智能英文为:Natural Intelligence
  • 人工智能:人类制造出来的智能。人工智能英文为:Artificial Intelligence

人工智能需要的基本数学知识

学习人工智能,数学知识是非常必要的,需要的基本数学知识如下:


人工智能简史

1.人工神经网络被提出(AI缘起):

  • Artificial Neural Network(一般简称为 Neural Network,神经网络)
  • 沃伦·麦卡洛和沃尔特·皮茨在1943年创造了神经网络的计算模型
  • 为以后的深度学习等领域打下基础

2.达特茅斯会议(定义AI):

  • 达特茅斯学院(Dartmouth College)是一所美国私立大学
  • 达特茅斯会议由约翰·麦卡锡等人与1956年8月31日发起
  • 标志着AI(人工智能)的正式定义(诞生)

3.感知器(Perceptron)

  • 一种最简单的人工神经网络,是生物神经网络机制的简单抽象
  • 由罗森布特拉于1957年发明
  • 将人工智能的研究推向第一个高峰

感知器典型示意图如下:

感知器是人工神经网络中的一种典型结构, 它的主要的特点是结构简单,对所能解决的问题 存在着收敛算法,并能从数学上严格证明,从而对神经网络研究起了重要的推动作用。

感知器是生物神经细胞的简单抽象,如下图,神经细胞结构大致可分为:树突、突触、细胞体及轴突。单个神经细胞可被视为一种只有两种状态的机器——激动时为‘是’,而未激动时为‘否’,而细胞核可以认为是处理信息的程序。 神经细胞示意图:

4.人工智能的第一个寒冬:

  • 1970年开始的那十几年
  • 传统的感知器耗费的计算量和神经元数目的平方成正比
  • 当时的计算机没有能力完成神经网络模型所需要的超大计算量

5.霍普菲尔德神经网络:

  • 这是一种递归神经网络(Recurrent Neural Network)
  • 由约翰·霍普菲尔德在1982年发明
  • 该神经网络具有反馈(Feed back)机制

6.反向传播(Back Propagation)算法

  • 1974年哈佛大学的保罗·沃伯斯发明,由于当时处于人工智能的第一个寒冬,所以没有受到重视
  • 1986年大卫·鲁姆哈特等学者出版的书中完整地提出了BP算法
  • 使大规模神经网络训练成为可能,将人工智能推向第二个高峰

7.人工智能的第二个寒冬:

  • 1990年开始
  • 人工智能计算机 Darpa 没有实现
  • 政府的投入缩减

8.深度学习(Deep Learning)

  • 基于深度(指 “多层” )神经网络
  • 2006年杰弗里·辛顿(Geoffrey Hinton)提出
  • 人工智能在性能上获得突破性进展

9.进入感知智能时代:

  • 深度学习在语音和视觉识别上分别达到99%和95%的识别率
  • 2013年开始
  • 人工智能三个时代:运算智能、感知智能、认知智能,目前我们处于感知智能时代

10.AlphaGo 击败众多人类选手:

  • Google买下的DeepMind公司的AlphaGo (基于TensorFlow开发)
  • 2016年接连击败围棋界顶尖棋手,如柯洁、李世石等
  • 深度学习被广泛关注,掀起学习人工智能的热潮

11.未来由我们创造:

  • 目前已经进入了大数据时代,人工智能需要基于海量数据训练,我们可以利用大数据去训练人工智能
  • 并且现在的计算机的运算能力也越来越强
  • 特别是在CES 2018的Intel展台上,Intel展示了Tangle Lake量子计算芯片(CPU),该芯片达到49量子比特
  • 同时英特尔在此次展会期间还再次展出了其AI芯片Loihi,基于人工神经网络
  • Loihi有128个计算核心,每个核心1024个人工神经元,整个芯片上含有13万个人工神经元和1.3亿个 “突触” 连接。
  • 它模拟人体大脑的工作方式,替代传统半导体芯片的逻辑门,号称相比传统CPU能耗比高出千倍
  • 所以人工智能是大势所趋,不过我们也不能过分乐观,未来也许还会有低潮

Tangle Lake量子计算芯片:

AI芯片Loihi:


AI、机器学习和深度学习的关联

简单来说AI、机器学习和深度学,这三者呈现出同心圆的关系:

同心圆的最外层是人工智能,从提出概念到现在,先后出现过许多种实现思路和算法。

同心圆的中间层是机器学习,属于人工智能的一个子集,互联网的许多推荐算法、相关性排名算法,所依托的基础就是机器学习。

同心圆的最内层是深度学习,以机器学习为基础的进一步升华,是当今人工智能大爆炸的核心驱动。

人工智能能够王者归来,深度学习功不可没,深度学习是引领人工智能热潮的 “ 火箭 ” ,深度学习作为 “后代”,却给 “爷爷” 和 “爸爸” 争光了。


什么是机器学习

什么是学习?

  • 学习是一个过程:如果一个系统,能够通过执行某个过程,改善了性能,那么这个行为就是学习
  • 说得更深入一些,学习的目的是 “减熵”
  • 热力学第二定律:一个孤立系统倾向于增加 (混乱程度)
  • 例如我们处于一个新环境时,我们需要通过学习这个新环境的知识去适应环境,应对该环境的变化,减少混乱程度,所以才说学习的目的是 “减熵”

机器学习的必要性:

  • 很多软件无法靠人工去编程,例如:自动驾驶、计算机视觉、自然语言处理等
  • 人类经常会犯错(比如紧张、累了、困了),机器不容易犯错
  • 机器的计算能力越来越强,提高我们的生活质量,加快科技发展

“晦涩” 的机器学习定义:

  • 对某类任务T(Task)和性能度量P(Performance)
  • 通过经验E(Experience)改进后
  • 在任务 T 上由性能度量 P 衡量的性能有所提升

简单的机器学习定义:

  • 机器学习:让机器 学习到东西
  • 机器学习:用数据解答问题
  • 数据 对应 训练
  • 解答问题 对应 推测

练习和考试:

  • 学生学习:用 做练习题提高考试成绩
  • 做练习题 对应 训练
  • 考试 对应 推测

AlphaGo学下围棋:

  • 围棋博弈:用和自己下棋提高下棋的胜率
  • 和自己下棋 对应 训练
  • 与人类下棋 对应 推测

机器学习大致等同于找到一个 好的函数(Function)/ 模型,Y = f ( X )

机器学习的分类:

  • 监督学习
  • 非监督学习
  • 半监督学习
  • 强化学习

监督学习会把不同标签的数据进行分类,然后通过学习生成预测模型,监督学习的特点就是在于数据有标签。

生成预测模型后就可以让模型来判断给的数据是什么:

非监督学习就是给的数据没有标签,让机器自己进行学习将相似的数据分成不同的类别,非监督学习的特点就是给的数据都没有标签:

然后把数据给生成的预测模型进行归类:

半监督学习最类似于人类的生活,半监督学习的特点就是给的少部分训练数据有标签,大部分训练数据没有标签。这就好比在人类还未成年、未踏入社会之前,都是由父母或老师来教授一些知识,这些知识就是有标签的数据,因为有人告诉你什么是什么,哪些事情能做哪些事情不能做。而当人类离开父母或老师踏入社会后,生活上的种种事情都是由自己去摸索学习,这部分的数据就是无标签的,所以说半监督学习最类似于人类的生活。

可以用AI玩游戏来简单解释一下强化学习,例如让AI去玩跑跑卡丁车,当AI跑赢了就加一分,失败则减一分,并且告诉它分数越高越好,那么这个AI就会有想要去获得更高分数的趋势,经过很多轮的训练后AI的总分数会达到一个比较高的分数。这就好像是给它一个奖励,通过这个奖励的机制去刺激它获得更高的分数,这种方式就是强化学习。

机器学习的算法:

我们可以根据以下这张图来筛选适合的算法来训练模型:


面对AI,我们应有的态度

近年来人工智能的概念大热,很多人都跟风想转行学习人工智能,或者对人工智能有恐惧感,我们应该要有正确的态度对待这项技术:

“人工智障”

  • 目前的人工智能还停留在比较初级的阶段,相比于人类大脑的智能,人工智能相当于是个 “智障” ,目前的人工智能只是在机械性的运算、数据处理等方面比人类强很多,所以它还终究是机器

人类从未创造过生命

  • 人类到目前为止只不过能复制生命,改造已有的生命,例如生物克隆、转基因技术等
  • 但是人类从没有从无到有来创造生命,而且基于无机体来创造生命,目前的技术是不可能的
  • 不过我个人认为这只是时间问题

目前对人工智能的看法,有两个派别

反省自己比担心AI更重要

  • “人心比万物都诡诈”,与人心相比,现在的AI真的是太人畜无害了

AI并非全能

  • 即使出现威胁人类的人工智能,它首先得发展出自己的体系才能够和人类竞争资源
  • AI并不能像电影那种无所不能,就像黑客的电脑并不像电影那样永远不会出现蓝屏宕机的情况
  • 面对目前如此庞大的人类社会,估计AI还没起义就凉了

不过也是需要适当的防备AI

  • 可能 AI 会在不断学习的过程中习得一些不可控的「思维」,这种可能性也不是没有的

借人工智能来认识自己

  • 人类大脑是怎么运行的,我们都还知之甚少,更不用说模拟或仿造了
  • 我们或许可以通过研究人工智能来发现自己大脑的运行原理

人机合作

  • AI “机智过人” 但又 “技不如人”。如果人机合力,定惊为天人2333

什么是过拟合

先简单介绍一下什么是拟合:形象的说,拟合就是把平面上一系列的点,用一条光滑的曲线连接起来。因为这条曲线有无数种可能,从而有各种拟合方法。拟合的曲线一般可以用函数表示,根据这个函数的不同有不同的拟合名字。我们训练模型的曲线就是拟合,拟合结果主要有三种:欠拟合(UnderFitting)、拟合完美(Fitting right)以及一会要重点介绍的过拟合(OverFitting):

从以上的图形可以看到,欠拟合就是 “不在点子上” ,完全没有达到我们的要求,偏得让你想说一句“诶诶诶,兄弟你要去哪啊,我说“,这种就是所谓的欠拟合。好的拟合则是有一定的 ”弹性“ ,因为它合适的达到了我们的要求,但它又不会 “完美得过分 “ 。过拟合就比较逗逼了,就跟强迫症似地要去不择手段的完全贴合各个分散的点,或者完全区分不同的点,虽然看起来很完美,但是这种完美的代价就是泛化性能很差。

过拟合就好比追一个妹子时,去了解了这个妹子的所有喜好、兴趣,然后你就拼命学习对方感兴趣的东西,穿着打扮上也迎合对方的口味,终于你不辞艰辛完美地符合了妹子的要求,然后你也自信满满的去追这个妹子,你也的确追到手了。但是不久后你们分手了,悲伤过去没多久,你又看上了一个妹子,想要拿之前学习的一身本领去追这个妹子,结果这个妹子对你并不感冒,这个妹子的喜好和兴趣和之前的妹子完全不一样,甚至还有点讨厌。这就是过拟合,过拟合带来的泛化性能很差或者基本为0导致了你无法沿用之前的把妹技巧。

举个物理学上的段子(转自他人博文),费米的话就是一个非常直观的理解: 1953年春天,戴森和自己的学生利用赝标介子理论计算了介子与质子的散射截面,得到了与费米的实验观测值十分相符的结果。然而该理论需要4个自由参数,费米很不屑,讲了一句日后很著名的话:“我记得我的朋友约翰·冯·诺依曼(John von Neumann)曾经说过,用四个参数我可以拟合出一头大象,而用五个参数我可以让它的鼻子摆动。”

有趣的是,2010年6月,尤根·迈尔(Jurgen Mayer)等三位德国分子生物学家在《美国物理学期刊》(American Journal of Physics)发表了题为“用四个复参数画出一头大象”的论文。他们发现,利用四个复参数可以大致勾勒出大象的形态,再引入一个复参数则可以让大象的鼻子摆动起来。

再附上一张有趣的图片:


小结

以上简单的聊了关于人工智能的各种概念,看了这篇文章的你或许会马上转身投入这个领域的研究、学习,也可能会对人工智能抱有一些恐惧,对其敬而远之。whatever,人工智能的确在慢慢改变我们的生活,虽然也可能会带来一些负面的影响,但是这项技术终究是有助于人类科技的发展,而且要学习这项技术门槛也比较高,比成为一个普通的程序员来说门槛是高得多的。首先你得要有高数、线代、统计学、概率论等数学基础,还要英语过关,不然谷歌都用不6,因为不管怎么说很多技术论文都是英文的,最先出的译文也是英文的,我个人认为学习英语的优先级要比数学高,不要让语言成为自己学习最大的障碍。

0 人点赞