最新 最热

GPT-4不知道自己错了! LLM新缺陷曝光,自我纠正成功率仅1%,LeCun马库斯惊呼越改越错

在推理实验中,声称可以提高准确性的模型自我纠正,把正确率从16%「提高」到了1%!

2023-10-25
0

1个token终结LLM数字编码难题!九大机构联合发布xVal:训练集没有的数字也能预测!

虽然大型语言模型(LLM)在文本分析和生成任务上的性能非常强大,但在面对包含数字的问题时,比如多位数乘法,由于模型内部缺乏统一且完善的数字分词机制,会导致LLM无法理解数字的语义,从而胡编乱造答案。...

2023-10-25
1

LLM推理技术之StreamingLLM:如何拥有无限长生成能力

MIT,Meta AI,CMU的研究人员最近提出了一种StreamingLLM,声称可以使得经过有限序列长度训练的大型语言模型能够在无需任何微调的情况下,推广到无限序列长度的输入和输出。 不过这里值得强调的是,这个方法并没有增加LLM的对...

2023-10-25
0

LLM in Reranking——利用LLM进行重排

重排器(Reranker)作为信息检索的第二阶段,需要根据查询和文档的相关性,对候选文档做细粒度的排序。经典的重排方法一般使用交叉编码器,结合文档和查询的语义信息进行打分和排序。...

2023-10-25
1

Google DeepMind 宣布基于 LLM 的机器人控制器 RT-2

Google DeepMind 最近宣布了 Robotics Transformer 2(RT-2),这是一个用于控制机器人的视觉 - 语言 - 动作(VLA)的 AI 模型。RT-2 使用经过精调的 LLM 来输出运动控制命令。它可以执行训练数据中未明确包含的任务,并在新出现...

2023-10-24
1

斯坦福NLP提出EFT:如何不实际微调而“假装”微调了LLM?

语言模型(LM)的训练经历两个关键阶段:首先,利用大量多样化的文本数据进行预训练;接着,对模型针对特定目标进行微调。尽管业界普遍认为预训练阶段是模型获取核心知识和技能的关键,而微调更偏重于调整和优化这些能力,这一观念却...

2023-10-24
1

把LLM视作操作系统,它就拥有了无限「虚拟」上下文,伯克利新作已揽1.7k star

近年来,大语言模型(LLM)及其底层的 transformer 架构已经成为了对话式 AI 的基石,并催生了广泛的消费级和企业应用程序。尽管有了长足的进步,但 LLM 使用的固定长度的上下文窗口极大地限制了对长对话或长文档推理的适用性...

2023-10-24
0

OpenAI科学家最新大语言模型演讲火了,洞见LLM成功的关键

近日,OpenAI 研究科学家 Hyung Won Chung 在首尔国立大学做了题为「Large Language Models (in 2023)」的演讲。他在自己的 YouTube 频道上写到:「这是一次雄心勃勃的尝试,旨在总结我们这个爆炸性的领域。」...

2023-10-24
0

ReCon框架帮助AI大模型识破谎言,来看智能体如何在阿瓦隆游戏中应对欺骗

大语言模型(Large Language Model,LLM)的进展促进了 AI 智能体(特别是 LLM 智能体)的蓬勃发展。在通往通用人工智能的道路上,AI 智能体将有能力在无人监管的情况下进行自主思考与决策。然而,较少有研究者关注如何在未来无人...

2023-10-24
0

TensorRT-LLM正式开源,NVIDIA生成式AI模型优化赛获奖代码一展芳华

今日,NVIDIA 正式宣布一项令人振奋的消息:TensorRT-LLM(大型语言模型加速器)正式开源!这是一个重大突破,将为那些想要在NVIDIA GPU上加速和优化最新LLMs的推理性能的人们带来福音。让我们一起深入了解这个激动人心的开源项...

2023-10-24
1