国内AI应用场景现有技术与产品简评

2024-07-16 18:24:56 浏览数 (1)

自从腾讯离职至今,2个多月时间,我在公众号似乎消失了,这段时间,承担着奶爸的角色,照顾家庭,带着孩子去了几个地方旅游。但我并没有闲着,随时关注AI领域的发展,特别是AIGC各个应用场景,同时我作为技术背景的从业者,对其背后的技术需求也有自己的认知。今天的文章,我会带着自己的理解,聊一聊我对当前市面上可以看到的支持应用场景背后的AI技术或产品的看法。

LLM基本成熟,Agent应用以B端为主

从2022年末ChatGPT进入大众视野开始,到现在LLM已经基本定型,技术路线虽然还在创新,例如moe架构,但基座模型基本上不会有大的变化,包括GPT本身,总是在藏着掖着有一个qstar版本,但实际上,无论哪家大模型,其底层思维逻辑不变,已成定局。也正是因为技术路线的固化,入局LLM基本变成了拼算力,也就是买显卡的money够不够多,只要资金雄厚,可以隔一段时间公布一个参数逆天的大模型,但是本质上,技术没有任何大的颠覆。

目前,在民用市场,openai的GPT并没有形成统治,特别是在中国,openai甚至自断双臂。而国内的大模型服务商也基本放弃了基座模型的深入研发,在把成本降下来之后,还纷纷向市场提供了价格更低的服务。

除了通用大模型之外,在工业(机控)、医疗、教育、法律等领域,国内也有发布过不同的模型,有的是基于llama架构自己做语料来训练,有的是在开源的高分模型上进行微调,但是都无法在商业上取得非常大的突破。从两方面看,在商业上,专业大模型无法达到客户的预期,例如现在很多企业想用bot替代掉客服,理论上这看上去是非常简单容易的,但是到了具体场景下,企业希望客服基于自身企业的知识来回答用户,但是现在的AI实际上都做不到企业客户的期望水平;另一方面,LLM本质上还是倾向于通用模型,就是要大而充分的训练语料,所谓专业大模型,就是无法拥有足够的语料而退而求其次搞专门一个行业的语料训练,可想而之,要在企业中落地,语料的生产和训练的成本,都是非常高的,再加上研发周期和人力成本,很难讲企业能够接受这种转变。

现在Agent基本都是面向B端去建立生态,因为在B端有足够多的场景需要用到智能化,需要让AI去决策,从而解放一些轻松的重复性大的工作。Agent服务商往往也把目光聚焦在为企业降本增效上,这些场景下,AI决策的容错率较高,即使某些失误发生,也能通过企业管理进行弥补和挽回。但如果想让Agent服务商为目标企业提供面向C端产品的服务,则目前来看,还有很长的路要走。举一个例子,我们都知道,AI智能化的生活场景中,缺少不了“预订”环节,而该环节则是一个决策性非常强的场景,因为要涉及到下单、支付、物流等,这涉及到普通用户的资金和隐私信息等,而Agent服务商们可承担不起由于AI决策失误,给企业带来的损失,因此,在企业的C端领域,目前还几乎很少有商业化的Agent。

在C端,LLM也并没有提供更为强劲的产品。虽然在抖音等平台上,我们看到各种AI搜索、视频快速总结知识点、智能化做PPT、智能化做报表等,处理文本对LLM来说是比较强的领域,但是就C端而言,其实对文本处理的需求并不强,在大部分宣传中,都是把产品定义成“生产力工具”,也就是在工作上能够帮普通人处理文本、数据等。但是这里有一个矛盾,如果LLM能帮普通人处理,也就能帮老板处理,老板为什么要聘用一个人,而非一个AI呢?因此,实际上,在C端,现在,很多人对ChatGPT等聊天应用已经不感冒了。即使现在已经有了非常多Agent,包括搭建Agent的平台,但是实际上,真正在C端市场出现一款热门的Agent的情况基本不存在。我想,其根源在于,C端主要讲究的是消费,而当今的消费模式是短平快,甚至无脑消费,而且还需要带点情绪价值,从抖音、小红书等平台的发展就可以看出。在这种消费场景下,普通用户很难为纯LLM买单,Agent领域,也鲜有可以做出消费级的应用。

对于普通玩家,除非我们有强烈的兴趣,或者有丰厚的在线资源,否则我们尽可能去选择国内的低成本LLM服务。现在提供LLM服务的优秀厂商包括阿里的千问(开源qwen)、百度的文心、腾讯的混元、字节的云雀、智普的清言(开源chatglm)、零一万物的Yi系列(开源Yi)、讯飞的星火、白川智能的白川(开源Baichuan)、深度求索的DeepSeek(开源deepseek)、稀宇科技的Minimax、月之暗面的Moonshot、复旦大学香港中文大学等多家机构合作的书生浦语(开源InternML)……目前,我的主力模型来自chatglm和deepseek,deepseek价格低性能快,因此被作为备选。

AI图像,疯狂地攻城略地

2023年,我在腾讯的时候,很早就开始在宣讲用AI来实现设计提效,但讽刺的是,作为公司核心设计部门,迎来了不好的结局,这可能与AI无关,只是碰巧赶上了。在我离职前一段时间,我开始关注这个领域,并认为,图像将占据消费市场的巨大空间,因为图像的背后还有视频作为延伸。之后我也开始在这个领域进入研究,并开发和发布了Visor这款软件。

Stable Diffusion作为设计师们的核心工具,已经形成了庞大的生态。除了企业内的设计师,还有原本是摄影行业的影楼,或者专门做图像处理的工作室,另外还有建筑设计、室内设计从业者,此外还有图片处理软件公司、服装设计师、电商网店、UP主等等角色们,都在这个生态中按需索取。最近很火的项目,修复老照片/破损照片->黑白照片上色->让老照片动起来,3个环节每个环节都能让很多人赚很多钱。而这些发烧友,还集合到了liblib、openart等社区,这些社区提供了各种模型和方案。各种各样的创业公司都在尝试面向C端提供收费的图片处理服务,而当字节这样的大厂下次,推出dreamina、星绘等产品时,stability上线自己的api服务时,这些独立的创业团队往往都面临痛苦的抉择。

不同的场景下,对AI图像的技术深度要求不同。以生图为目的的创作者们,有的只需要从AI处获得灵感,一次性生成10张图片,再获得灵感后由人工完成创作,因此,只要一台能在本地跑SD webui的电脑即可。也有的是以实现图像处理为目标,例如一些影楼或工作室,他们并不单纯服务于企业或个人,但凡是图像处理的需求,可以来者不拒,一个团队几个人到10几个人,通过comfyui构建出可复用的工作流,遇到相同目标的需求时,无需再过多处理,就可以把钱赚到手,这样的创业团队,甚至都不需要人手一台猛卡电脑,整个团队有一台类似中心服务器的,就可以让整个团队疯狂输出。而有的公司则需要自己训练模型,以向自己的客户提供独特的服务,但是为了养活自己,他们往往在网站上提供一次性处理图片的能力,并按次收费或按月订阅收费。只有到了头部大厂,才有足够的资源,既做模型训练,又向其他第三方买训练好的服务,然后再自己做应用,这里面字节冲的特别猛,不仅自己训练训的猛,而且还通过coze免费提供服务给开发者,在剪印中作为独立功能对C端提供产品还不过瘾,还要独立做产品。除了字节,通义千问、文心一言等app上,也夹杂了AI图像。传统图片处理厂商美图秀秀也在冲,快手也在用快影冲。老牌图像处理天花板photoshop发布了beta版本,其中融合了AI功能,在原来的选区、修补等工具基础上,以小搏大,用强劲的AI图像能力实现图片处理,真的是让人很开眼,可惜由于数据管控的原因,目前在国内我们无法使用这部分AI功能。

AI图像分为生图和修图两个方面。目前,AI图像好的方面是生图,无论是midjourney还是sd,甚至字节家的app,只要用户稍微上心一点,都能得到非常漂亮的效果,这是因为目前阶段已经是v3阶段了,各家大模型已经训练的可以对用户的prompt做非常非常聪明的响应。虽然但是,生图中,很多细节仍然经不起推敲,一旦往细节去看,往往会遇到细思极恐的地方。因此,现在但凡想要得到一张好的图,我们不太可能通过prompt直接获得,往往需要做细节修图。这时,虽然ps还是首选,但是毕竟会有软件的跳跃感,因此,基于AI的修图也被越来越重视。现在几乎所有的厂商,都在生图后提供给用户修图的选项,根据图片的需求,有的时候,只需要用AI稍加处理,就可以获得满意的结果。Visor也是在这种现状下设计和开发的,它希望用户利用AI在生图、修图、出图上一气呵成,同时根据条件提供类似粘土化、换脸、老照片修复等这种集成化程度高的功能。但是,就目前来说,我认为修图效果最好的,还是ps的AI能力,毕竟老牌设计品牌。

作为普通用户,如果希望实现创作,我们往往需要下载多款app,在不同的app之间使用不同的功能来实现想要的效果。从想通过AI图像领域赚钱的个人或团队而言,则需要抓住热点,结合掌握的技术,快速制作能够实现热点图像效果的短视频,在抖音等平台上推广自己。

总而言之,AI图像领域有着非常宽泛的空间,可以容纳不同类型的人群在这个领域利用AI完成自己的图像目标,无论是以AI为工具实现自己的设计目标,还是想通过AI赚外快,AI图像领域都是一个可以包容的、且略带疯狂的领域。

AI声音,悄无声息地越来越强大

容易被人忽视的声音领域,实际上在应用中,占据着非常大的比重。不过,从应用上讲,除了针对盲人,声音更多的是一种辅助手段,往往并不能成为核心角色,因此才那么容易被忽视。

但是,现在不同了,因为AI声音已经越来越强大了。新一轮的AI,让我们可以完全克隆一个人的声音,更让人惊喜的是,还能为声音实现情感、情绪、实时反应和停顿的控制,甚至通过训练,把多个角色进行融合,得到一个既要又要的音色。接下来的阶段,技术上的主要目标是实现低廉的高性能的实时生成声音流,从而能够让AI声音成为能与人自然交流的机器对象。另外,这里面还有一个分支,就是AI唱歌,现在基于so-vits-svc技术,已经可以把AI唱歌做的非常好,你看suno的发展,音乐创作者们高声痛哭要失业。

从应用角度看,AI声音将会是数字人、影视制作、游戏NPC、机器人等一系列场景下的必备条件。但是从现实的角度讲,普通用户对声音的需求程度到底有多大是一个问号,就现在的生硬的TTS对于大部分普通用户而言,也未尝不能接受,只有在特定领域,特别是沉浸式体验的场景中,才会对声音的要求比较大。

在GPT-4o发布的时候,AI声音展现了其独特的魅力。而未来,每一台通用智能机器人都将具备自己的音色,甚至,用户可以根据自己的喜好,定制音色。

AI声音包含两个重要的方面,“听”和“说”。首先是声音的训练,其中克隆声音是一个大题目,在数字人领域,能够具备与宿主一模一样的声音是核心诉求。其次是基于文本的声音的生成,通过文本来控制声音的速度、音调、情绪、感叹、口音等等,并且性能要足够优秀,目前来说,这是一个挑战。

我尝试了最近较火的chatTTS, fish-audio, cosyvoice,发现单一技术即使在某些点上做的很好,但是整个技术体系在实现目标上,各有各的缺陷,有的无法完成出色的克隆,有的克隆优秀但是生成性能很差,总之,虽然我们所拥有的工具越来越好,但还不够非常好。

AI视频,期望越大失望越大

今年年初,openai完成了sora的PPT式发布会,此后,AI视频成为全部人翘首以待的重量级AI应用领域。之前的赛道选手中,pika迅速陨落,runway和国产之星pixverse还在反抗。sora之后,所有的AI视频技术路线被统一,快手旗下的快影app发布了AI视频内测功能(基于可灵大模型),由于其优秀的实际效果,在Gen-3, Genmo, dreamina等一众AI视频生成应用中,杀出重围,后来居上,成为在实际应用中(消费级)获得最高评分。最近很火的老照片动起来视频,很多都是由可灵完成。

对于AI生成视频而言,从消费者的角度讲,有几条最基本的要求,一是画面的稳定与连贯,人物一致,那种明显的AI诡异画面是不可忍受的;二是对信息的理解准确,不要漏掉或错误安排关键信息;三是能够以正常的速度呈现画面,并且运动效果稳定;四是时长越长越好,像素越高越好。

从技术上讲,现在的AI视频生成模型,都是sora的技术路线,即由视频数据的训练,视频的生成方式有prompt生成和基于图片的生成。在之前一段时间,由于我的乐观,认为这是最优的一条技术路线,而且当时“世界模型”这个概念被疯狂炒作,让我对技术本身产生了误判。举个例子,就人物一致性问题而言,基于该技术路线就令人担忧,如果不能保证人物的一致性,那么很多情况下,这个视频都是不可用的,仅是PPT视频而言。我认为,还是回到“补间”路线才是最后的解法。就像最近很火的老照片动起来的视频,虽然只有一张图,但视频的本质就是将图片作为帧,以连贯的方式播放它们,所以在生成帧时,通过原始图片做细微的人物处理,在很大程度上可以避免基于prompt式的AI意识流视频来的更好。实际上,这一路线在之前很多将短视频跳舞转为卡通风格上,获得了验证,或者替换视频人脸的视频等等。今天还看到商汤发布了Vimi模型,实现可控人物视频,通过控制人物姿态来保证人物一致性,其背后的原理都是结合了AI图片中的控制网络。这些,都是基于这种看上去很笨,却非常有效的技术路线。

当然,如果在生成视频时,能够做到sora演示效果那样的高清真实效果,确实可以在影视制作、游戏等领域给我们带来更棒的体验。例如我们在制作一些科普短视频时,由于缺乏素材,如果可以通过AI将其补充,这对我们提供更加优质的科普内容,更有帮助。再如我之前为小孩制作动画,如果可以通过AI,直接基于故事内容,生成人物一致的连环画式视频,对亲子教育或许也有不错的帮助。虽然我们在短视频平台可以看到很多将网文直接输出为短视频的,但是可以很明显感觉那些画面过于糙,而且画面与画面之间没有逻辑,感觉就是纯粹的配个图而已。

无论是prompt生成视频、图片生成视频,目前来说,效果都并不理想,距离我们在生产中用AI视频完成内容输出,或许还有很大的距离。

多模态大模型,重要却进展缓慢

多模态的本质,在AI领域,就是“眼睛”的作用。多模态大模型的成功是打开AI心灵的窗户。但是,目前的多模态大模型发展并不乐观,从google最早发布gemini视频造假,到现在GPT-4o收费且调用次数限制,多模态大模型的发展一直不那么顺利。在多模态之下有一个分支,就是vision(视觉)模型,这个分支倒是发展的不错,微软发布的phi3-vision已经来到了128k参数量,可以说在硬件上门槛被降到很低。但是通用多模态大模型的发展缓慢,或许是因为之前在LLM上过多投入,期望在接下来的这个阶段,各大厂商在多模态上,可以把价格打下来性能抬上去,在这一点上,国内的厂商们,有没有一家可以上去硬刚呀。

多模态大模型,是实现GPT-4o发布会上,拿着手机摄像头与AI对话的前提,没有多模态,一切基于视觉对话的场景都免谈。虽然视觉模型可以解决部分问题,但是视觉模型只能处理图片,不能处理视频,没有办法动态分析内容,因此也就没有办法真正解决多模态要解决的场景问题。

在应用场景中,多模态可用于机器人、自动驾驶、教育教学、各类知识的实时解答和分析等等。例如对于盲人而言,或许只需要在头顶安装一枚摄像头;对于聋哑人,只需要佩戴一副实时字幕的眼镜。在这些应用场景中,我们其实可以通过Agent架构来调用不同工具实现,现在大部分LLM应用也基于Agent技术实现了多模态的效果,但是,在性能上明显差别巨大,要对序列化内容进行分析,可能还是需要多模态才能做到最好。

通用机器人,未来的唯一方向

前面的所有,都还只是在软件层面,当我们把视野拉大,AI人工智能的终极,一定是让AI控制硬件。现在,已经很多工业车间的机器人,也有智能汽车,酒店商场等也有一些服务性的机器人,但是,这些机器人距离通用机器人,就像草履虫到人类之间的差距一样。通用机器人,就是我们电影中看到的robot,它们提供通用的服务,例如家庭、餐厅、酒店、写字楼等,它们可以代替人类完成服务性质的工作,如家务、清洁、配送、修理等等,当然,对于某些力量来说,它们还会被配置到战场上。

随着机器人领域的开源生态越来越大,3D打印的成本逐渐降低,在硬件领域,实际上制作通用机器人的技术工程难度已经很低了,核心问题在于如何设计可量产的、设计感强的、功能可迭代的硬件体系,更重要的是如何让硬件体系获得灵魂。从目前来看,openai投资的机器人公司figure已经具有雏形,核心的问题还是在算力(性能)上。

国内也有研究机器人的公司,包括优必选、小米等,产业链上还有绿的谐波、柯力传感这样的公司,但是总体而言,整个行业还是比较散,没有形成规模,产业链不够完善。而从这点来看,在AI领域,本文提到的所有方向,国内的发展都不容乐观。

结语

本文挑选了我认为AI领域当前发展最重要的几个方向进行了阐述,呈现国内发展现状,以让更多的读者朋友了解当前AI领域发展趋势。2024年是AI应用的爆发年,作为应用强国,我们在基础研究和产品设计上都有一定的优势,然而在创业环境和产业链上都存在着明显的竞争不足。未来5-10年必然是AI统治应用领域的开始阶段,在国际大背景下,这一竞争领域显得更加重要。作为从业者,我们应该认识到国内外的差距,同时,也正因认识到国内外产业链上的现状,才有信心一点一点地去补齐不同环节上的不足。竞争永远是残酷的,在关键领域,不存在开放市场,如果没有掌握主动权,未来或许我们不得不向境外公司购买通用机器人这样的关键技术或产品,并因此带来更严重的数据危机。个人在时代的浪潮中非常渺小,我过去10来年积累了很多应用开发的经验,如今在AI领域中继续投入,希望能为这个时代贡献自己的微薄力量吧。

0 人点赞