打造最前沿的AI智能客服系统,基于自有数据语料,充分运用ChatGPT的大模型自然语言生成能力,定制化客服系统为企业提供自主性的客服服务能力。
ChatGPT如何革新智能客服?
根据当前ChatGPT的使用情况,我们发现未来中短期内ChatGPT产业化的方向大致有四类:即智能客服、文字模态的AIGC应用、代码开发相关工作以及图像生成。其中,最适合直接落地的项目就是智能客服类的工作。对于我来说,一直在开发客服系统相关产品,ChatGPT也为我开发产品提供了一种全新的思路。
那么,ChatGPT究竟能从哪些方面革新智能客服呢?可能有以下几个方面:
01:座席辅助和座席提效
聚焦到智能客服领域来看,过去的智能辅助更多局限于按单轮对话来完成,要实现多轮对话则需要AI架构师首先搭建一个个非常复杂的场景。但是,基于ChatGPT的能力,AI架构师能够快速分析并生成面向客户侧的系统支撑策略,这种处理效率和结果,远超出依附纯规则或者纯知识库所能达到的效果。
02:闲聊寒暄
闲聊寒暄是智能客服非常关键的基础能力,能够帮助企业对任意进线客户进行即时响应。然而,过去的智能客服闲聊主要是将各类非业务相关的语料堆到素材库,并通过调取数据库已有的关键词进行内容的回复。如今,则可以充分借助ChatGPT提供闲聊,在非业务领域上,为座席和客服提供更多决策依据和参考。
03:提供话术优化建议
在电销场景下,电销客服的话术往往决定了电销的效果。话术回复不精准,将直接导致用户的流失。通过ChatGPT强大的内容生成能力,智能客服能够对营销话术进行不断地迭代和与优化,以提高电销转化率。
04:提供语料扩写
在智能客服冷启动阶段,往往需要足够多的语料来丰富知识库的相似问法,以保证上线初期智能客服有足够高的解决率和场景覆盖率。以往的语料生成模型很难覆盖众多垂直行业和领域,ChatGPT在通用领域中积累了足够的数据和语料,可以很好的弥补语料生成模型的不足,快速生成相似问法,解决智能客服冷启动语料不足,场景覆盖率低等问题。
如果聚焦到行业分类来看,在软件企业中,ChatGPT的问答能力能够帮助企业为各类系统故障提供解决方案。在制造业,则可以基于ChatGPT的信息抽取、文本分类能力,帮助客户快速实现已有文档到结构化知识的转换,形成企业自己内部的知识图谱、知识库、信息系统中的数据资产,真正实现数字化到智能化的转变。
AI将如何在客户联络领域发挥更大价值?
在技术浪潮式迭代的当下,我们不确定未来是否会有新的人工智能技术出现。但是在当下可以肯定的是,AI的智能化应用会更加广泛。
针对ChatGPT这一热门技术应用,ChatGPT是生成式AI的杰出代表,在诸多领域、不同问题的日常应答实践中表现优异。但我们也注意到ChatGPT在智能客服领域的大规模企业应用落地也存在很大挑战。
ChatGPT需要针对企业的个性化知识库进行训练,才能回答企业的个性化问题。这就需要ChatGPT在云端开放其训练能力,并且要求企业将自己的知识库上传到云端做训练。而ChatGPT训练一次几百万美金的费用对企业来讲是一个天价,因此ChatGPT的商业化需要将模型裁剪到合适的规模,在合理的费用和时间内完成训练,才能适应一般企业的需求,而裁剪的同时又要保留原有的问答体验。这样可能需要成千上万的模型来服务于各种不同企业,要解决规模化运营的性能和效率问题。
除了以上云端训练的方式,现在流行的是Embedding 向量数据库的形式。
ChatGPT个性化训练
现在基于自然语言和文档进行对话的背后都是使用的基于嵌入的向量搜索。OpenAI在这方面做的很好,它的Cookbook(github.com/openai/openai-cookbook)上有很多案例,最近他们对文档做了一些更新。 GPT擅长回答问题,但是只能回答它以前被训练过的问题,如果是没有训练过的数据,比如一些私有数据或者最新的数据该怎么办呢? 这种情况下通常有两种办法,一种是微调(fine-tuning),一种是嵌入(embedding)。 微调就是在大模型的数据基础上做二次训练,事先准备好一批prompt-complition(类似于问答Q&A)的数据,生成新的模型,这个模型将会包含微调后的数据。 而嵌入则是每次向ChatGPT发送消息(prompt)的时候,把你自己数据结果带上。
王建硕老师对于微调和嵌入有过精妙的比喻: ChatGPT就像一个已经训练好的家政阿姨,她懂中文,会做家务,但是对你家里的情况不了解。 微调就相当于阿姨第一次到你家干活的时候,你要花一小时时间告诉她家里的情况,比如物件的摆放、哪些地方不能动,哪些地方要重点照顾。 嵌入就相当于你省去了对阿姨进行二次培训的,而是在家里贴满纸条,这样阿姨一看到纸条就知道该怎么做了。 OpenAI的Cookbook也有类似的比喻: 微调就像你通过学习准备考试,是一种长期记忆,但过了一周后考试来临,模型可能会忘记袭击,或者记错它从来没有读过的事实。 嵌入就像记笔记,是一种短期记忆,当考试的时候,你把笔记带上,随时翻看笔记,对于笔记上有的内容可以得到准确的答案。 另外嵌入的搜索提问方式相对于微调有一个缺点就是它每次附带的文本数量是有限制的,因为除了原始的问题,它还需要带上搜索出来的问题,GPT-3.5是4K(大约5页),GPT-4最大是32K(大约40页)。 就好比你有成书的教科书可以借鉴,但每次却只能翻看其中几页笔记。
如果你想构建一个对大量文本问答的系统,OpenAI建议“搜索-问”(Search-Ask)的方法。 也就是先在本地文档库中Search,拿到本地的数据结果,再去Ask,把搜索结果和问题一起交给GPT,这样GPT可以根据你提供的内容以及它模型中的数据,一起将结果返还给你。 至于如何搜索,并非一定要基于向量的搜索,可以有多重搜索方式: - 基于关键字搜索 - 基于图形的搜索 - 基于向量的搜索