人工智能快速发展趋势下,中国该如何应对?

2023-03-23 16:47:58 浏览数 (1)

人工智能 | 深度学习 | GPT-4

文心一言 | 机器学习 | ChatGPT

近日,随着ChatGPT-4和百度的文心一言的出台,人工智能技术得到迅猛发展。人工智能(AI)是一种模拟人类智能的技术,它可以通过学习和自我改进来执行各种任务。ChatGPT是一种基于AI的聊天机器人,它可以与人类进行自然语言交互,回答问题和提供信息。

人工智能是通过模拟人类大脑的方式来工作的。它使用算法和数据来学习和自我改进,以便更好地执行任务。人工智能可以分为弱人工智能和强人工智能。弱人工智能是指只能执行特定任务的AI,例如语音识别或图像识别。强人工智能是指可以像人类一样思考和决策的AI。

2023年政府工作报告指出“过去五年极不寻常、极不平凡,我们经受了世界变局加快演变、新冠疫情冲击、国内经济下行等多重考验,经济社会发展取得举世瞩目的重大成就。”聚焦到科技领域,“全社会研发经费投入强度从2.1%提高到2.5%以上,科技进步贡献率提高到60%以上。科技创新成果丰硕,人工智能领域的创新成果也不断涌现。”

纵览人工智能产业近年发展,虽然一定程度上突破了深度学习等各类算法革新、技术产品化落地、应用场景打磨、市场教育等难点;但如今也仍需致力解决可信、业务持续、盈利、部署的投资回报率等商业化卡点。

聚焦于2022年,这一历史上极为重要一年中我国AI产业参与者的特征表现、探讨AI产业在我国经济发展中的价值与地位、洞察各技术赛道参与者的发展路径与产业进阶突破点。

人工智能产业发展环境演变

一、人工智能参与社会建设的千行百业——价值性、通用性、效率化为产业发展战略方向

人工智能已成为推动产业发展的主流趋势,其产品形态和应用边界不断拓宽,包括软件服务、云服务、硬件基础设施等形式,应用场景涵盖消费、制造业、互联网、金融、元宇宙和数字孪生等领域。据艾瑞预测,到2022年,我国人工智能产业规模将达到1958亿元,同时,人工智能产学研界在通用大模型、行业大模型等方向上取得了一定突破,促进技术通用性和效率化生产。AI技术的商业价值塑造、通用性提升和效率化应用是其助力产业发展、社会进步和自身造血的关键。

二、企业积极部署AI战略以实现业务增长——对AI应用的比率及数量持续走高; AI提升营收能力进步

纵观近五年来的AI技术商业落地发展脉络,产品及服务提供商围绕技术深耕、场景创新、商业价值创造、精细化服务不断努力;需求侧企业也在从单点试验、数据积累到战略改革的发展路线上,与AI技术逐渐深度绑定。AI成为企业数字化、智能化改革的重要抓手,也是各行业领军企业打造营收护城河的重要方向。

麦肯锡2022年对企业应用AI技术的调研表明:相较于2017年的20%,2022年企业至少在一个业务领域采用AI技术的比率增加了一倍多,达到50%;应用的AI产品数量也从2018年的平均1.9个增加到2022年的3.8个。除了应用数量上的提升,AI产生的商业价值也不断增长,企业部署AI的动力显著。

埃森哲商业研究院针对中国250家领先企业的调研显示,2018-2021年,企业营收中“由AI推动的份额”平均增加了一倍,预计到2024年将进一步增加至36%。落地AI应用对企业业务运营的商业价值与战略意义越来越明确。

三、城市算脑建设推动区域发展与产业升级——各地加速布局区域智算中心,夯实AI算力基础设施

基于对支撑AI应用及研发的智能算力需求扩大、以及全国算力枢纽一体化和“东数西算”的工程建设方向。近两年来,各地对人工智能计算/超算中心(智算中心)的关注度和投资增多。智算中心是指基于最新AI理论,采用领先的AI计算架构,提供AI应用所需算力服务、数据服务和算法服务的公共算力新型基础设施。目前,我国有超过30个城市建设或提出建设智算中心,其中已有近10个城市的智算中心投入运营,为当地各行业领域提供算力支撑。智算中心建设对区域经济发展和产业升级有明显推动作用,同时可提高城市治理智能化水平和城市竞争力。从政府投资角度看,智算中心产业发展尚处于初期阶段,建设、运营、应用推广与生态建设、节能环保要求等投入较大,需结合地方财政能力合理评估,根据实际需求适度超前部署机柜。

四、政策引导解决AI重大应用和产业化问题——着力打造人工智能重大场景,形成可复制推广的标杆应用

尽管我国在数据、算力、算法及模型的基础层资源与研究积累日益丰富,为开展下游人工智能场景创新应用打下了坚实基础,但在应用场景上仍存在“对场景创新认识不到位,重大场景系统设计不足,场景机会开放程度不够,场景创新生态不完善”等问题。为此,2022年,我国陆续出台一系列指导意见及通知,持续加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,实现AI与实体产业经济的深度融合。其中,政策引导是解决AI重大应用和产业化问题的重要手段之一。着力打造人工智能重大场景,形成可复制推广的标杆应用,是政策引导的重要方向之一。通过政策引导,加强对人工智能场景创新工作的统筹指导,规范与加强人工智能应用建设,将有助于实现AI与实体产业经济的深度融合。

五、科技伦理治理持续引导AI “向善”——全球AI伦理治理迈入法治时代,我国积极倡导框架规范

随着人工智能与社会产业的融合应用,其带来的安全、法律和伦理方面的风险不容忽视。2022年,科技伦理治理的约束力和影响力持续提升。从全球范围来看,主要发达国家和地区的人工智能伦理治理从政策建议正式进入法律范畴,相关立法逐步完善,国际组织也在凝聚共识的基础上,启动大规模深入研讨。而在中国,在吸取发达国家治理经验和思路的基础上,2022年首次将人工智能伦理治理上升到国家政策层面,提出科技伦理治理的原则和行动方案,具体治理举措将会不断细化和完善。同时,我国也在科技伦理问题上通过国际组织积极表态,增强国际影响力和话语权,防止在科技伦理问题上陷入被动。

六、人工智能产业投资热度仍在——融资向中后期过渡,视觉赛道上市浪潮涌动

人工智能产业一直是投资市场的热门领域,而最近的数据显示,这一趋势仍在持续。统计数据显示,Pre-A~A 轮人工智能产业创投轮次数量最多,但整体而言,Pre-B~B轮 及以后轮次的人工智能产业创投数量逐渐成长,资本流向稳定发展企业,融资逐渐向中后期过渡。此外,视觉赛道上市浪潮也在涌动,商汤科技、格灵深瞳、云从科技、创新奇智等企业都已实现上市目标。虽然2022年我国人工智能产业资本市场投资金额整体缩水,但投资标的更加丰富,孵化出AIGC、元宇宙、虚拟数字人等新投资赛道,认知与决策智能类企业也吸引更多关注,智能机器人、自动驾驶两类无人系统是融资的热门赛道。

七、区域与独角兽企业融资分布特点——北上广与江浙地带融资密度高;独角兽企业聚集于自动驾驶、医疗、工业、芯片赛道

从区域分布看,统计时间内融资事件集中分布于北上广、江浙地带。北京的融资事件密度最高,融资事件数量占全国的31.1%。除北上广、江浙地带以外区域融资密度较低且分散,相应融资事件数量占全国不超过10%。这可能是因为北上广、江浙地带人工智能人才密集、具备产业园区进行产学研成果转化、风投机构密布等因素,为孵化创投项目提供了有利条件。

从独角兽企业融资情况看,统计时间内独角兽企业占比6.7%,但对应的融资金额比例高达32.3%。独角兽融资事件集中分布于自动驾驶、医疗、工业、芯片行业赛道,分别孵化出L3及以上智能驾驶解决方案、AIDD药物研发服务、工业机器人、云端大规模训练或端侧推理芯片等产品或服务。随着市场资金向独角兽企业持续流入,AI产业未来或将逐步出现一批明星上市企业。

八、人工智能产业市场规模——2022年市场平稳向好,市场规模近2000亿元

根据艾瑞的定义,我国人工智能产业规模涵盖AI应用软件、硬件及服务,主要包括AI芯片、智能机器人(商用)、AI基础数据服务、面向AI的数据治理、计算机视觉、智能语音与人机交互、机器学习、知识图谱和自然语言处理等核心产业。预计到2022年,中国人工智能产业规模将达到1958亿元,年增长率为7.8%,整体平稳向好。2022年的业务增长主要依靠智算中心建设以及大模型训练等应用需求拉动的AI芯片市场、无接触服务需求拉动的智能机器人及对话式AI市场,除此之外的增长动力将在第三章详细阐述。目前,中国大型企业基本都已在持续规划投入实施人工智能项目,未来随着中小型企业的普遍尝试和大型企业的稳健部署,在AI成为数字经济时代核心生产力的背景下,AI芯片、自动驾驶及车联网视觉解决方案、智能机器人、智能制造、决策智能应用等细分领域增长强劲。预计到2027年,人工智能产业整体规模可达6122亿元,2022-2027年的相关CAGR为25.6%。

人工智能的底层基础

一、AI芯片

1、AI芯片针对机器学习算法设计开发,广泛应用于云、边、端各类场景

AI芯片(AI Chip)是一种专门用于处理人工智能相关的计算任务的芯片。它的架构是专门为人工智能算法和应用进行优化的,能够高效地处理大量结构化和非结构化数据。AI芯片能够高效地支持视觉、语音、自然语言处理等智能处理任务。目前,AI芯片主要分为GPU、FPGA、TPU、IPU、DPU、NPU等类型。AI芯片广泛应用于云端、边缘端、终端等各种场景。云端AI芯片具有高性能特征,终端AI芯片具有低功耗和高能效特性,而边缘端AI芯片的性能介于云端和终端之间。

2、AI芯片性能指标评价评价AI芯片性能需重点关注TOPS/W、时延、功耗等相关指标

目前,评价AI芯片性能的指标主要包括TOPS、TOPS/W、时延、成本、功耗、可扩展性、精度、适用性、吞吐量和热管理等。其中,TOPS/W是用于度量在1W功耗的情况下,芯片能进行多少万亿次操作的关键指标。近年来,MIT、Nvidia等研发人员开发了专门的芯片软件评价工具,如Accelergy(评估芯片架构级能耗)和Timeloop(评估芯片运算执行情况),对于AI芯片的性能做出了系统、全面评价。此外,MLPerf是由来自学术界、研究实验室和相关行业的AI领导者组成的联盟,旨在“构建公平和有用的基准测试”,可用于衡量深度学习软件框架、AI芯片和云平台性能。

3、AI芯片:云端场景数据中心

1)GPU具备矩阵和大规模并行计算优势,适合数据中心场景

CPU是一种通用处理器,它由控制单元(负责指令读取和指令译码)、存储单元(包括CPU片内缓存和寄存器)以及运算单元(ALU约占20%CPU空间)三个主要模块组成。然而,由于成本、功耗、技术难度和算力瓶颈等问题的限制,目前还没有出现适用于AI高算力要求的主流CPU产品。

相比之下,GPU是一种由大量核心组成的大规模并行计算架构,它具有较多的运算单元(ALU)和较少的缓存(cache),是专门为同时处理多重任务而设计的芯片。GPU拥有良好的矩阵计算能力和并行计算优势,能够满足深度学习等AI算法的处理需求,因此成为主流云端AI芯片。

2)张量计算单元是GPU进行深度学习运算的核心组成部分

英伟达A100芯片是一种并发多核处理器,由多个SM单元(Streaming Multiprocessors,流式多处理器)构成。不同的SM单元共享L2 Cache存储资源,以便进行数据访问。该芯片采用安培架构,拥有128个SM核,其中SM结构是芯片架构升级的核心。此外,英伟达GPU架构中还设置了Tensor Core,这是专为深度学习矩阵运算设计的张量计算单元,也是英伟达GPU系列深度学习运算加速的核心。Tensor Core主要处理大型矩阵运算,执行一种专门的矩阵数学运算,适用于深度学习和某些类型的高性能计算。其功能是执行融合乘法和加法的运算,其中两个4*4 FP16矩阵相乘,然后将结果添加到4*4 FP32或FP64矩阵中,最终输出新的4*4 FP32或FP64矩阵。

4、边缘端场景—AIoT。边缘端集成AI芯片可以实现本地化数据的实时处理

AIoT是一种融合了人工智能和物联网技术的新型智能化系统,它可以实现万物智联,涉及到安防、移动互联网等多种场景。在智慧安防方面,由于终端摄像头每天产生大量的视频数据,若全部回传到云数据中心将会对网络带宽和数据中心资源造成极大占用。为了解决这个问题,可以在终端加装AI芯片,实现数据本地化实时处理,即仅将经过结构化处理、关键信息提取后带有关键信息的数据回传云端,从而大大降低网络传输带宽压力。目前,主流解决方案是在前端摄像头设备内集成AI芯片,在边缘端采用智能服务器级产品,后端在边缘服务器中集成智能推理芯片。为了推动这项技术的发展,国内外企业正在加大对边缘端AI视觉处理芯片的研发和投入,相关芯片产品如英伟达Jetson AGX Xavier、地平线旭日3、华为海思Hi3559A V100等。

5、终端场景—智能驾驶。随着智能驾驶等级的提高,技术不断迭代促使车用AI芯片性能逐步增强

SAE(国际自动机工程师学会)将自动驾驶分为六个级别,从L0(非自动化)到L5(完全自动化)。每一级别需要强大的算力进行实时分析、处理大量数据和执行复杂的逻辑运算,对计算能力有着极高的要求。L1(驾驶员辅助)和L2(部分自动化)需要的计算能力相对较低,而L3(有条件自动化)需要约250TOPS的计算能力,L4(高度自动化)需要超过500TOPS,L5(全场景自动驾驶)需要超过1,000TOPS。随着芯片设计和制造工艺的提高,车用AI芯片正朝着高算力、低功耗的方向发展。

6、终端场景—智能驾驶。预计到2025年,全球车用AI芯片市场规模将突破17亿美元

随着汽车控制方式逐渐由机械式转向电子式,每辆汽车对车用AI芯片需求提升,带动车用AI芯片长期发展。据市场研究机构Yole预测,到2025年,全球车用AI芯片产量将达到67.19亿颗,市场规模将达到17.76亿美元,年复合增速分别达到99.28%和59.27%。此外,车用AI芯片逐渐往高能效方向发展。例如,英特尔计划于2022年推出EyeQ Ultra自动驾驶汽车芯片,该芯片基于经过验证的Mobileye EyeQ架构而打造,含有8个PMA、16个VMP、24个MPC、2个CNN Accelerator视觉处理单元(VPU),通过优化算力和效能以达到176TOPS,可满足L4自动驾驶场景。该产品将于2023年底供货,预计在2025年全面实现车规级量产。

7、终端场景—消费电子。2026年全球消费电子AI芯片市场规模将突破55亿美元

AI芯片在图像识别、语音识别和快速建立用户画像等方面具有重要作用。根 据Yole预测,2026年全球消费电子AI芯片市场规模将达到55.8亿美元,其中笔记本电脑、平板电脑和智能手机AI芯片渗透率将分别达到100%、100%和91%, 未来全球消费电子AI芯片市场规模和渗透率呈现逐步增长态势。

二、深度学习开源框架

深度学习开源框架是一种标准接口、特性库和工具包,用于设计、训练和验证AI算法模型。它们集成了数据调用、算法封装和计算资源的使用,是AI开发的重要工具。目前,国际上广泛使用的深度学习开源框架包括Google TensorFlow、Facebook PyTorch、Amazon MXNet和微软CNTK等。在中国,也有一些深度学习开源框架,如百度PaddlePaddle、华为MindSpore等。这些框架已经初步应用于工业、服务业等场景,服务200余万开发者。

三、数据服务以AI训练与调优为目的,涉及数据采集、标注与质检等环节

人工智能数据服务是指提供数据库设计、数据采集、数据清洗、数据标注和数据质检等服务,以满足客户的需求。这个服务流程是围绕客户需求展开的,最终产出的产品是数据集和数据资源定制服务,为AI模型训练提供可靠、可用的数据。随着短视频、直播、社交电商等应用的快速兴起,全球数据量也在快速增长。根据IDC的预测,全球数据量将从2015年的9ZB增加到2025年的175ZB,这为人工智能技术的持续迭代提供了重要的底层基础。

四、云计算服务显著降低人工智能算法开发成本,缩短产品开发周期

由于人工智能的开发和应用对于算力和数据有较大需求,云计算服务可以为开发者提供智能服务器集群等强大算力设施的租用。同时,云计算服务还可以直接提供已经训练好的人工智能功能模块等产品,通过多元化的服务模式,降低开发者的开发成本和产品开发周期,为客户提供AI赋能。

例如,亚马逊SageMaker可以提供图片/图像分析、语音处理、自然语言理解等相关服务。使用者无需了解参数和算法即可实现功能的应用。随着底层技术的发展,IBM推出深度学习即服务(DLaaS),借助此项服务用户可以使用主流框架来训练神经网络,如TensorFlow、PyTorch及Caffe。用户无需购买和维护成本高昂的硬件,每一个云计算处理单元都遵循简单易用的原则而设置,无需用户对基础设施进行管理。用户可以根据支持的深度学习框架、神经网络模型、训练数据、成本约束等条件进行挑选,然后DLaaS服务会帮助完成其余的事情,提供交互式、可迭代的训练体验。

人工智能的核心技术

机器学习作为人工智能技术的核心,近年来实现了明显的突破。它与计算机视觉、自然语言处理、语音处理和知识图谱等关键技术紧密结合,相关机器学习算法主要应用于图像分类、语音识别、文本分类等相关场景中。这些应用场景的不断发展和完善,不仅提升了人工智能技术的整体应用效果,也使得人工智能技术在金融、医疗、交通等各领域实现了广泛的应用。

一、机器学习

机器学习是实现人工智能的核心方法,专门研究计算机如何模拟/实现生物体的学习行为,获取新的知识技能,利用经验来改善特定算法的性能。根据学习范式的不同,机器学习可划分为有监督学习、无监督学习、强化学习三类。有监督学习是指通过给计算机提供标注数据,让计算机学习如何将输入映射到输出的过程。无监督学习则是指在没有标注数据的情况下,让计算机自行学习数据的特征和结构。强化学习则是通过让计算机在与环境的交互中不断试错,从而学习如何最大化奖励的过程。深度学习是机器学习算法的一种,具有多层神经网络结构,其在图像识别、语音处理等领域取得了划时代的成果。

1、有监督学习:从有标注训练数据中推导出预测函数

有监督学习是机器学习任务的一种类型,其目的是从给定的训练数据集中学习出一个函数(模型参数),以便在新的数据到来时,能够根据该函数预测结果。训练集中包括输入和输出,也称为特征和目标,其中目标是由人工标注的。有监督学习的过程一般包括确定训练类型、收集训练集、确定特征提取方法、选择算法、训练算法、评估准确性六个环节。通过已有的训练样本去训练得到一个最优模型,再利用该模型将所有的输入映射为相应的输出,从而实现分类目的。

1)逻辑回归

逻辑回归是一种用于学习某事件发生概率的算法,它可以对某个事件的发生或不发生进行二元分类。逻辑回归使用 Sigmoid 函数来输出结果,其输出结果的范围在 [0,1] 之间。逻辑回归的主要目标是发现特征与特定结果可能性之间的联系。例如,我们可以使用逻辑回归来根据学习时长来预测学生是否通过考试,其中响应变量为“通过”和“未通过”考试。

2)支持向量机:以间隔最大化为基准学习远离数据的决策边界

支持向量机(Support Vector Machine,SVM)是一种基于间隔最大化的决策边界算法。其主要目的是学习一个尽可能远离数据的决策边界,以确保分类的准确性。在SVM中,支持向量是决策边界的重要数据点,其位置对于分类结果具有重要的影响。

当训练样本线性可分时,SVM采用硬间隔最大化的方法学习线性可分支持向量机;当训练样本近似线性可分时,SVM采用软间隔最大化的方法学习线性支持向量机。在解决线性不可分问题时,SVM引入核函数,将数据映射到另一个特征空间,然后进行线性回归。通过采用核方法的支持向量机,原本线性不可分的数据在特征空间内变为线性可分,从而实现了分类的准确性。

3)决策树:以树结构形式表达的预测分析模型

决策树是一种树状结构,用于对数据进行划分。它通过一系列决策(选择)来划分数据,类似于针对一系列问题进行选择。一棵决策树通常包含一个根节点、若干个内部节点和若干个叶节点。每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。

决策树的生成是一个递归过程。在决策树基本算法中,有三种情况会导致递归返回:

  • 当前节点包含的样本全属于同一类别,无需划分。
  • 当前属性集为空或是所有样本在所有属性上取值相同,无法划分。
  • 当前节点包含的样本集合为空,不能划分。

这些情况都是决策树生成过程中的终止条件。

4)随机森林:利用多决策树模型,提高模型预测精度

随机森林是一种分类器,它利用多棵决策树对样本进行训练和预测。在随机森林算法中,每个决策树的输出被收集起来,通过多数表决的方式得到最终的分类结果。这种方法类似于找人商量事情,不只听一个人的意见,而是在听取多人意见后综合判断。随机森林的每棵树都是通过以下步骤生成的:

  • 从训练集中随机且有放回地抽取N个训练样本,作为该树的训练集,重复K次,生成K组训练样本集;
  • 从M个特征中随机选取m个特征,其中m<<M;
  • 利用m个特征实现每棵树最大程度的生长,并且没有剪枝过程。

这种方法可以有效地避免过拟合问题,并且在处理大型数据集时表现良好。

5)朴素贝叶斯是常用于自然语言分类问题的算法

朴素贝叶斯是一种基于概率进行预测的算法,主要用于分类问题。在实践中,它被广泛应用于文本分类和垃圾邮件判定等自然语言处理领域。具体来说,该算法通过计算数据为某个标签的概率,将其分类为概率值最大的标签。例如,假设训练数据类别为电影(包括那部让人感动的电影名作重映、华丽的动作电影首映和复映的名作感动了世界),训练数据类别为宇宙(包括沙尘暴笼罩着火星、火星探测终于重新开始和VR中看到的火星沙尘暴让人感动),而验证数据为“复映的动作电影名作让人感动”。在这种情况下,朴素贝叶斯算法将通过计算“复映的动作电影名作让人感动”属于电影或宇宙的概率,来判断该数据属于哪个类别。以下为朴素贝叶斯算法过程:

2、无监督学习:对无标签样本进行学习揭示数据内在规律

无监督学习是一种机器学习方法,其主要目的是在没有标记的训练数据的情况下生成模型。这种方法通常用于缺乏足够的先验知识难以进行人工标注类别或进行人工类别标注成本高的情况下。无监督学习的目标是通过对无标签样本的学习来揭示数据的内在特性及规律。该方法主要涉及聚类和降维问题。聚类问题包括K-means聚类、概念聚类、模糊聚类等算法,其目标是为数据点分组,使得不同聚类中的数据点不相似,同一聚类中的数据点则是相似的。降维问题主要是主成分分析、线性判别分析、多维尺度分析等算法,其中主成分分析将数据中存在的空间重映射成一个更加紧凑的空间,此种变换后的维度比原来维度更小。无监督学习适用于发现异常数据、用户类别划分、推荐系统等场景。

1)策略梯度:有效处理高维及连续动作空间问题

策略梯度(Policy Gradient,PG)是一种基于策略优化的强化学习算法。在强化学习中,机器通过判断在特定状态下采取不同动作所得环境回报大小来评价采取该动作的优劣。PG的核心思想是,当一个动作的环境回报较大时,增加其被选择的概率;反之,减少该动作被选择的概率。每个动作选择概率由神经网络决定,以参数化神经网络表示策略(记为

0 人点赞