导读
腾讯云大数据Elasticsearch Service首发上线ES 8.8.1版本,提供强大的云端AI增强与向量检索能力,支持在端到端搜索与分析平台中实现自然语言处理、向量搜索以及与大模型的集成,10亿级向量检索平均响应延迟控制在毫秒级,助力客户实现由AI驱动的高级搜索能力,为搜索与分析带来全新的前沿体验。本文将结合腾讯云ES与ChatGPT,演示如何通过百行代码轻松实现ES帮助文档的智能问答系统。
作者:Elastic中国区首席架构师 李捷
引言
信息化技术的飞速发展,使得海量数据爆发式增长。一方面,越来越多的数据可以为我们的生活带来便利,但另一方面,也给软件开发带来巨大的挑战——图片、声音、视频等不同结构的数据越来越多地出现,为搜索分析带来巨大的挑战,传统的关键词搜索,搜索结果局限于输入的关键词,用户体验较差。向量检索的出现,给我们提供了一个新的思路,向量数据库将非结构化、半结构化甚至是结构化等数据以向量形式存储,实现相似度搜索、聚类、降维等操作,结合机器学习模型,为用户更加智能的搜索服务。
然而,集文本搜索➕向量检索➕AI能力于一身,且成熟稳定、值得信赖的云端搜索引擎,在业内屈指可数,腾讯云大数据Elasticsearch Service近期首发上线的ES 8.8.1版本,提供了强大的云端AI增强与向量检索能力,支持在端到端搜索与分析平台中实现自然语言处理、向量搜索以及与大模型的集成,10亿级向量检索平均响应延迟控制在毫秒级,助力客户实现由AI驱动的高级搜索能力,为搜索与分析带来全新的前沿体验。
本文将结合腾讯云ES与ChatGPT,演示如何通过百行代码实现AI问答。
RAG介绍
在进入正式的介绍之前,我们先来聊聊RAG,随着搜索引擎技术的不断发展,我们对于查询的需求也日益提高。传统的关键词搜索已经无法满足用户对于查询准确性和效率的要求。为此,我们引入了语义搜索技术。通过使用先进的自然语言处理(NLP)技术,语义搜索能够更好地理解用户的查询意图,并返回更相关的搜索结果。而随着机器学习技术的持续发展,特别是ChatGPT等生成式大模型的火爆,一个新的技术方向应运而生 —— RAG。
但是真正的理解什么是RAG并不容易,实现RAG就更难。现状是大多数时候用户会简单地把实现RAG理解为在企业中加入一个向量数据库。但RAG是一个复杂的概念,它不仅仅是一个向量数据库,实现RAG需要对业务场景有深入的理解,并且需要进行大量的数据处理和算法优化,用户的行为的理解和反馈也是最终效果达成的重要关键。因此,我们需要的更多地是一个解决方案,而非仅仅一个高性能的向量数据库。
一、什么是RAG
RAG是 Retrieval Augmented Generation 的缩写,意思是检索增强生成。它是一种利用大语言模型(LLM)和 Elasticsearch等搜索引擎,从海量的文本数据中检索出相关的信息,然后结合这些信息生成新的文本的方法。RAG可以用于实现多种应用,如知识问答、文本摘要、对话生成等。RAG最终效果的达到,关键在于准确的理解用户的问题,准确且丰富的上下文数据,优秀的生成式大模型,合适的prompt等。
图一
二、为什么要做RAG
举个列子,在官网文档上,目前的文本检索方式存在以下问题:
1、词汇不匹配(lexical mismatch):当文档和查询使用不同的词语来表达相同或相似的意思时,传统的搜索方法可能无法找到相关的文档。比如对于ELK技术栈来说,“logstash”和“ls”在语境中是一个意思,但是它们在词汇上是不同的。
图二
2、语义不匹配(semantic mismatch):当文档和查询使用相同或相似的词语来表达不同或不相关的意思时,传统的搜索方法可能会找到不相关的文档。比如,“Elastic”可以指弹性,也可以指代一家科技公司,但是它们在语义上是不同的。
3、语言不匹配(language mismatch):当文档和查询使用不同的语言时,传统的搜索方法可能无法找到相关的文档。比如,“Serverless架构”和“无服务器架构”都可以指代同一种架构,但是它们在语言上是不同的。
图三
因此,我们需要通过语义搜索的方式解决以上问题,找到对应的文档。但客户实际的需求可能会更复杂,客户的问题可能是:
- ES Serverless服务如何收费?请给我一个详细的例子。
- 如何销毁ls实例,给我具体的步骤。
在这种需要学习文档并给出指导性意见的场景中,仅仅依靠全文检索、语义搜索或混合搜索是无法达到令人满意的效果的。为了实现这一目标,我们需要结合大模型,并在企业私有数据的基础上,通过检索增强生成(RAG)来提升效率和准确性,同时给出指导性的步骤。
使用腾讯云ES进行RAG
腾讯云 Elasticsearch Service(ES)是云端全托管海量数据检索分析服务,拥有高性能自研内核,集成X-Pack。ES 支持通过自治索引、存算分离、集群巡检等特性轻松管理集群,也支持免运维、自动弹性、按需使用的 Serverless 模式。使用 ES 您可以高效构建信息检索、日志分析、运维监控等服务,它独特的向量检索还可助您构建基于语义、图像的AI深度应用。
腾讯云ES近期上线的8.8.1版本,包含了实现 RAG 所需的所有功能的综合性引擎,从向量存储和搜索到向量生成和混合搜索排序,甚至还包括了专有的向量模型
图四
为了给大家展示完整的使用Elasticsearch进行RAG的过程,我们将通过腾讯云ES和ChatGPT,在腾讯云ES的官网文档实现一个案例。步骤如下:
1、创建一个ES集群,并配置相关的参数和插件。
2、收集并了解我们的数据,在本例中,腾讯云ES帮助文档将作为我们的知识库,用来研究如何通过语义搜索并结合大模型来增强。
3、处理数据,使其能进行语义搜索。使用BAAI/bge-base-zh模型将文本转换为向量,并将向量和文本一起存储到ES中。
4、使用ES提供的API或者Kibana工具来进行向量 文本的混合搜索。
5、使用大模型提供的API或者SDK来进行RAG的对话生成。
下面我们将详细介绍每个步骤的具体操作。
一、创建ES集群
在腾讯云ES 上申请 ES 8.8.1 集群。
图五
注意,因为部署 embedding 模型的需要,我们尽量所选足够的内存。要实现本例中的内容,建议选择配置8G及以上内存的数据节点。
二、收集并了解我们的数据
要在具体的场景下实现RAG,带给我们的第一个问题是我们要如何收集该场景下可能会用到的数据。很不幸的是,这些数据大多数时候并非是管理良好的结构化数据,比如最新的监管文档,企业内部的员工手册,传感器数据和日志,促销记录等。这些数据可能是放在wiki中,放在网盘里,发在邮件里,存在日志里,或者分散在多个不同的数据库中。如何采集它们,理解它们,并且如何将其转换为搜索比重不同的字段,就会存在很大的问题,而且是留给开发者自己处理的问题。
图六
以腾讯云ES的帮助文档为例子,文档是以 markdown 的格式存储在 github 上的。并且会随时更新。在其上做 RAG ,你需要联系对应的业务团队,获取数据的同步权限,而且还需要定期同步更新。另外,这是一个典型的半结构化数据,虽然有 HTML 和 Markdown 的标签,但实际上,每一篇文章的内容和格式是不固定的,如何提取合适的 “context window”,需要我们在搜索引擎中重新有效的组织数据。
图七
面对这些问题,ES提供的企业搜索功能,为我们最大程度的减少了对应的工作。从沟通,到采集,以及信息的提取,再到数据的理解。
为了减少阅读的时间,这里制作了一个短视频,方便大家快速了解,我们是如何通过爬虫,抓取页面数据的,以及抓取下来的数据,如何通过管道进行处理和清洗。具体参考如下视频演示:
如果您需要使用企业搜索功能进行数据摄入,请联系我们进行相关操作。
完成数据的采集,以及简单的处理后,我们可以直接在 Kibana 中了解我们场景中的数据:
图八
可以看到,核心的内容包含在body_cotent,headings,title等三个字段中。如果要以语义搜索的方式来支持 RAG,那么,需要为这三个字段生成向量,并且需保留原始的文本字段用于页面展示引用,并发送给大模型。特别是其中的heading字段(该字段由爬虫自动生成),包含了文档中所有章节的标题。这种有效的概括和总结性的文字,特别适合在不进行chunk、不分段存储的情况下,作为文本内容的向量表示,比如:
代码语言:javascript复制"headings":"集群规格和容量配置评估#本页目录:#存储容量评估#计算资源评估#实例类型选择及测试#分片数量评估"
而剩余的字段中,url则可用于链接到源文档。剩下的字段均可删除。而因为是数组类型,需要转化为 text 才能被转化为向量,因此,通过以下数据管道后:
代码语言:javascript复制PUT _ingest/pipeline/search-tencent-es-doc@custom
{
"version": 1,
"description": "Enterprise Search customizable ingest pipeline for the 'search-tencent-es-doc' index",
"processors": [
{
"rename": {
"field": "doc_content",
"target_field": "body_content",
"ignore_missing": true
}
},
{
"join": {
"field": "headings",
"separator": "#"
}
},
{
"remove": {
"keep": [
"headings",
"body_content",
"url",
"title"
],
"ignore_missing": true,
"description": "移除多余字段"
}
}
]
}
清洗后的数据为:
图九
三、处理数据,使其能进行语义搜索
因为在一个 RAG 系统中,用户是通过自然语言对话的方式进行提问的,因此,检索本地数据的引擎必须支持语义搜索。通常,我们可以稀疏向量检索和密集向量检索两种方式来实现语义搜索。
ES上支持两种方式,并且为稀疏向量检索提供了ELSER专有模型。但在本例中,我们将使用密集向量检索作为演示。为此,我们先添加一个机器学习的推理管道,用于向量的生成:
图十
这里,我们使用的模型是 BAAI/bge-base-zh (但实际上,我们可以在ES中部署多个 embedding 模型,通过调试及更换模型,在不同的场景上可以获得不同的效果),该模型将输入转化为768维的向量,因此,我们需要定义一个密集向量字段,用以存储该模型生成的数据:
图十一
最后的包含向量的数据为:
图十二
四、使用ES进行向量检索 文本搜索的混合搜索
在常见的一些教程中,要进行语义搜索还需要结合Langchain等封装好的模块工具才能快速的开展语义搜索。而使用腾讯云ES,我们只需要短短几行代码就能实现。
注意,到目前为止,我们还没有写任何一行代码,所有的数据采集和清洗,以及数据的向量生成,都可以在UI界面上通过提供的工具来完成。对于一个熟练能使用ES上各种工具的程序员来说,上面的过程整体花费可能不超过30分钟。这使得我们能够更快速地进入到向量模型和大模型调试的阶段。
而在进行混合搜索的阶段,得益于 ES 将向量检索功能与原有的全文检索进行有有效的整合,整个过程也几乎不需要花费太长时间。从代码上看,写一个函数就能进行测试:
代码语言:javascript复制
from elasticsearch import Elasticsearch
# Search ElasticSearch index and return
def search(es, index_name, embedding_model, query_text):
source_fields = ["body_content", "url", "title"]
query = {
"bool": {
"must": [{
"match": {
"title": {
"query": query_text,
"boost": 1
}
}
}]
}
}
knn = [{
"field": "ml.inference.headings_embeddings.predicted_value",
"query_vector_builder": {
"text_embedding": {
"model_id": embedding_model,
"model_text": query_text
}
},
"k": 5,
"num_candidates": 10,
"boost": 24
}, {
"field": "ml.inference.body_content_embeddings.predicted_value",
"query_vector_builder": {
"text_embedding": {
"model_id": embedding_model,
"model_text": query_text
}
},
"k": 5,
"num_candidates": 10,
"boost": 24
},
]
resp = es.search(
index= index_name,
fields=source_fields,
query=query,
knn=knn,
size=3,
source=False)
return resp
关于以上代码,重点需要关注的地方在于:
1、我们通常需要结合混合搜索的方式才能获得最佳效果。
2、同时,在执行向量搜索的时候,我们可以在多字段上进行向量检索。
3、而我们将 embedding_model 作为变量传入,使得我们可以在调试的过程中,选择不同的模型组合来查看语义检索的性能,看看哪些文档会被召回。
4、因为我们需要将检索出来的内容交给大模型来理解,受限于模型 token的限制,我们通常只召回1~3篇文档。这种场景下,精确率比召回率重要!
通过语义搜索,对比一下原来的全文检索,同样是搜索 “如何销毁ls节点” 我们可以查到原先无法获得的信息:
代码语言:javascript复制es = Elasticsearch(hosts=["https://es-7cu6zx9m.public.tencentelasticsearch.com:9200"],
http_auth=(username, password))
print(search(es,"moka-ai__m3e-base","如何销毁ls节点?"))
>>>>>>>>>>>>>
{'took': 79, 'timed_out': False, '_shards': {'total': 2, 'successful': 2, 'skipped': 0, 'failed': 0}, 'hits': {'total': {'value': 24, 'relation': 'eq'}, 'max_score': 47.651337,
'hits': [{'_index': 'search-tencent-es-doc', '_id': '6542334ead3b4de80cb57864', '_score': 47.651337,
'fields': {
'body_content': ['操作场景 当 Logstash 实例无法满足您的需求,需要退货时,您可以在 Elasticsearch Service 控制台对实例进行销毁,以避免服务继续运行而产生费用。如果是实例配置无法满足需求,您也可以通过调整实例配置把实例调整到合适的规格,详情可参见 实例扩缩容 。不同计费模式退费说明 不同计费模式下的实例,销毁实例的条件如下:预付费包年包月的实例,如果实例还未到期,需要提前销毁时,可参见 包年包月退费 。后付费按量计费的实例,根据使用量计费,可以随时销毁实例,销毁后,就不再产生费用。注意 实例被销毁后,数据无法恢复,请谨慎操作。操作步骤 1. 登录 Elasticsearch Service 控制台 ,在左侧导航栏单击 Logstash 管理 ,进入 Logstash 实例列表页。ufeff 2. 在实例列表页,选择需要销毁的实例,选择 操作 > 更多 > 销毁 进行销毁;或单击实例 ID/名称 进入实例基本信息页,选择右上角 更多操作 > 销毁 进行销毁。ufeff 3. 在销毁实例页面中,单击 确定 ,系统将清空实例数据,并回收资源, 数据清空后,无法恢复 。包年包月的费用退还方式,可参见 包年包月退费 。'],
'title': ['Elasticsearch Service 销毁实例-Logstash 指南-文档中心-腾讯云'],
'url': ['https://cloud.tencent.com/document/product/845/55114']}},
如果是搜索 “无服务器ES”,也能找到相关的结果,而不会因为语言的原因无法识别 “Serverless” 和 “无服务器” 之间的关系。
图十三
五、使用大模型进行RAG的对话生成
但正如我们之前说的,客户实际的需求可能会更复杂,客户的问题可能是:
- 无服务器es如何收费?请给我一个详细的例子
- 如何销毁ls实例,给我具体的步骤
我们需要把查出来的文档交给大模型进行指导性内容的生成,受限于大模型 token的限制,我们不可能无限的把召回的内容交给大模型去理解和学习;同时,召回的不相关的文档,也可能会导致产生幻觉;而根据场景,设定良好的prompt,也是大模型能够按照我们的期望为我们提供答案的关键。因此,其实现如下:
代码语言:javascript复制def truncate_text(text, max_tokens):
tokens = text.split()
if len(tokens) <= max_tokens:
return text
return ' '.join(tokens[:max_tokens])
# Generate a response from ChatGPT based on the given prompt
def chat_gpt(prompt, model="gpt-3.5-turbo", max_tokens=1024, max_context_tokens=4000, safety_margin=5):
# Truncate the prompt content to fit within the model's context length
truncated_prompt = truncate_text(prompt, max_context_tokens - max_tokens - safety_margin)
print(truncated_prompt)
response = openai.ChatCompletion.create(engine="gpt-35-turbo",
messages=[{"role": "system",
"content": "你现在是腾讯云Elasticsearch Service的专家."},
{"role": "user", "content": truncated_prompt}])
return response["choices"][0]["message"]["content"]
negResponse = "根据检索出来的文档,我无法回答这个问题。"
resp = search(es,embedding_model,query)
retrival_result = []
for hit in resp['hits']['hits']:
#避免产生幻觉
if hit['score'] > 30:
retrival_result.append(hit['fields']['body_content'][0])
# 组合召回的内容,也可以只选择 top 1
combine_result = ";".join(retrival_results)
print(combine_result)
prompt = f"回答此问题: {query}n 如果所提供的文档中没有答案,请回复:'{negResponse}'n 回答时,参考来自腾讯云ES的帮助文档: {combine_result} "
answer = chat_gpt(prompt)
关于以上代码,重点需要关注的地方在于:
1、要注意大模型的限制,所以定义了 truncate_text() 函数与 max_context_tokens 等参数避免因超过token而调用失败
2、限制交给大模型的上下文信息。通过 if hit['score']>30 避免不相关的文档误导大模型的理解
3、设置合理的Prompt,让大模型理解自己的角色,以及角色该如何处理问题:
- "role":"system","content":"你现在是腾讯云Elasticsearch Service的专家."
- "role":"user","content":""回答此问题: {query}n 如果所提供的文档中没有答案,请回复: '{negResponse}'n 回答时,参考来自腾讯云ES的帮助文档: {combine_result} "
简单的运行上面的代码,我们可以得到如下结果:
图十四
上图中,我们看到,通过提问 “无服务器es如何收费?给我一个详细的例子”,我们得到了一个详细的,由大模型生成的例子。成功实现 RAG! 结合 streamlit 等简单的 python 框架,我们可以非常轻松的构建出一个智能助手程序。
图十五
如果大家想体验,可以移步尝试。
总结
在本文中,我们介绍了如何通过腾讯云ES与ChatGPT 快速搭建一个检索增强的生成式人工智能助手。通过腾讯云ES的数据采集、数据清洗、数据分析等功能,以及向量生成、向量存储、向量检索等向量库的功能,再结合原有的全文检索能力,我们可以快速实现与大模型的结合,只需区区百行代码即可完成一个带用户界面的人工智能助手。
不仅仅是玩票性质的应用开发,对于规模更大的企业级生产环境来说,腾讯云ES能够带来更高的效能和更稳定的表现。多年的历程使得腾讯云ES经过了千锤百炼的考验,成为一个值得信赖的平台。
在未来,我们将继续优化腾讯云ES,以满足企业级生产环境的更多需求,并为用户提供更好的使用体验。我们将不断努力,为人工智能助手的开发和应用带来更多创新和便利。
欢迎扫码加入腾讯云ES AI增强与向量检索交流群:
推荐阅读
关注腾讯云大数据公众号
邀您探索数据的无限可能
点击阅读原文,了解更多资讯
↓↓↓