ChatGPT Prompt 私有新知识(大模型未见过),可以碰出什么样的火花?
工作中有较多的自动生成报告场景,但要在多个系统间数据聚合、提取,沟通链路长、开发人力投入大、后期维护对人的要求高。
本文使用大模型的few-shot技术,只需要用自然语言告诉大模型调哪个接口、接口返回值字段的意义、报告的样式,即可完成报告的生成。
一、背景简述
在给客户做专家服务时,在面客前,需要输出一版客户隐患报告。
报告的原始信息,散落在多个系统且有一定技术门槛,一个报告的人力投入约为 1人/天;但是这份报告对于项目成功,属于必要不充分条件,所以投入产出比较低。
其实可以通过开发一个系统、自动输出报告来解决这一痛点,但这种方法需要较多的研发人力投入、后期维护成本大,就尝试用ChatGPT来探索服务能力的新可能。
二、使用方法
【工具选用】
1、 大模型:利用few-shot能力,让大模型可处理未知新知识
2、 大模型:gpt-3.5-turbo
a) 可以根据prompt,理解接口返回值的含义、理解输出报告的含义
b) 价格低,节约调用成本
3、 开发框架:langchain
a) 未知知识获取:赋予大模型调用外部接口获取信息的能力
b) 开发投入少:根据模版生成prompt、一个API即可调用大模型
【业务流程】
ps:本流程是一次性开发工作,上线后即可重复输出客户的隐患报告。
流程解释:
1. 输入客户信息:使用者在聊天框输入待生成报告的客户信息
2. 系统处理:系统自动化处理
2.1. 定制分类prompt,用大模型提取客户关键信息,并返回特定json
2.2. 根据第1步json,使用langchain agent调用相关内网API,将返回值作为第3步的输入
2.3. 定制报告prompt,根据第2步的输入,生成prompt中预期的报告
3. 返回客户的报告:使用者从聊天窗口获取报告
其他说明:
1. 上面步骤中,与ChatGPT、内网API交互,直接使用langchain框架自带API,难度很低。
2. 真正起关键作用的是,定制的两个prompt:通过给大模型例子,让大模型自行理解报表与API的对应关系、最终准确输出报告。上线后如需修改报告格式,只用改prompt即可。
3. 此外,这次开发完之后,复制粘贴即可给其他项目复用,唯一要需要时间投入的是:修改prompt,适配自己的项目。
【后续调优】
1、 引入多模态模型,支持更多的报告形式,比如饼图、折线图等
2、 提炼生成方法,支持更多的专家服务客户报告
3、 引入公司内模型,进一步降低成本
四、 成果展示
【收益】
1、 人力节约:报告输出从数小时级别,降低到秒级
2、 开发成本低:无需定制开发前端、后端,借助大模型自然语言理解能力,直接捕获用户的输入、各系统的API返回值和最终报告材料间的关系
3、 维护成本低:不会编程也可以用这套方法开发、维护一套自己的系统
【展示材料】
在输入框,输入客户的appID等描述信息,即可自动生成需要的报告文件。
ps:上面信息做了脱敏和截取,所以内容偏少、实例ID奇怪,另外原谅我是个前端渣
五、经验总结与资源共享(可选)
欢迎向大家推荐你使用的该项AIGC产品/组件/模型,便于一站式取经,包含以下内容:
内容 | |
---|---|
工具名称 | 大模型:In-Context Learning、gpt-3.5-turbo开发框架:langchain |
适用范围 | 可以提炼出One-shot或者Few-shot的场景 |
如何获取&使用 | gpt-3.5-turbo:调用开源库In-Context Learning:根据业务需要,自行写prompt及few-shot |
使用Tips | —— |
学习资源推荐 | prompt教程:GitHub - datawhalechina/prompt-engineering-for-developers: 吴恩达大模型系列课程中文版,包括《Prompt Engineering》、《Building System》和《LangChain》langchain官方文档:https://python.langchain.com/docs/get_started/introduction.html |
六、参考资料
1、使用了ChatGPT3.5的gpt-3.5-turbo模型
2、 使用了聊天前端界GitHub - dotmet/chatgpt_webui: Build a WebUI of ChatGPT with multiple authentication methods using Gradio and revChatGPT
3、 langchainhttps://github.com/hwchase17/langchain