最新 最热

中文环境下使用 huggingface 模型替换 OpenAI的Embedding 接口

嵌入是浮点数的向量(列表)。两个向量之间的距离衡量它们的相关性。小距离表示高相关性,大距离表示低相关性。 但是OpenAI的文本嵌入接口对中文的支持并不好,社区经过实践,对中文支持比较好的模型是Hugging face上的 ganyme...

2023-05-23
0

3分钟创建基于私有文档的本地问答系统[无需联网]

在当前信息爆炸的时代,越来越多的企业、组织甚至个人都面临着处理和管理大量的信息的挑战。其中,对于问题和答案的管理尤其重要,因为它可以直接影响到企业或组织的运作和效率。...

2023-05-22
0

再谈Fine-tunning和Embedding的区别

如果你想了解Fine-tunning和Embedding的区别,推荐看一下这个视频,讲的比较清楚。

2023-05-18
0

openai模型个性化训练Embedding和fine-tuning区别

现在基于自然语言和文档进行对话的背后都是使用的基于嵌入的向量搜索。OpenAI在这方面做的很好,它的Cookbook(github.com/openai/openai-cookbook)上有很多案例,最近他们对文档做了一些更新。...

2023-05-11
0

推荐系统[九]项目技术细节讲解z3:向量检索技术与ANN搜索算法[KD树、Annoy、LSH局部哈希、PQ乘积量化、IVFPQ倒排乘积量化、HNSW层级图搜索等],超级详细技术原理讲解

在现实世界中,我们认识和理解一个事物,总是会想办法捕捉它的一些特质或者属性。比如路边一朵红色的野花,那么仅从颜色这个维度,我们可以使用离散的0,1来表达。如 【1,0,0】...

2023-03-10
0

CIKM'22 | 序列推荐中的多层次对比学习框架

本文主要针对序列推荐中的数据稀疏问题提出相应的解决方法,针对现有对比学习在缓解该问题上的不足提出MCLSR。现有方法的不足:由于对复杂的协作信息(例如用户-商品关系、用户-用户关系和商品-商品关系)的建模不足,学习信息...

2023-01-30
0

BERT知识蒸馏TinyBERT

诸如BERT等预训练模型的提出显著的提升了自然语言处理任务的效果,但是随着模型的越来越复杂,同样带来了很多的问题,如参数过多,模型过大,推理事件过长,计算资源需求大等。近年来,通过模型压缩的方式来减小模型的大小也是一个...

2022-11-30
0

一文了解prompt learning在计算机视觉领域进展

本文是对prompt Learning在CV领域的文献总结,读者阅读完全文会对prompt learning在CV的各种用法有所了解,希望能对大家未来研究工作有所启发。

2022-11-18
0

【论文阅读】STAN:Spatio-Temporal Attention Network for Next Location Recommendation

authors:: Yingtao Luo, Qiang Liu, Zhaocheng Liu container:: Proceedings of the Web Conference 2021 year:: 2021 DOI:: 10.1145/3442381.3449998 rating:: ⭐⭐⭐ s...

2022-10-31
0

【论文阅读】ALBERT:A lite BERT for self-supervised learning of language representations

authors:: Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut container:: International conference on learning representat...

2022-10-31
1