最新 最热

用深度催眠诱导LLM「越狱」,香港浸会大学初探可信大语言模型

尽管大语言模型 LLM (Large Language Model) 在各种应用中取得了巨大成功,但它也容易受到一些 Prompt 的诱导,从而越过模型内置的安全防护提供一些危险 / 违法内容,即 Jailbreak。深入理解这类 Jailbreak 的原理,加强相关...

2023-11-22
0

EMNLP 2023 | 解决LLaMA、BERT等部署难题:首个4-bit浮点量化LLM来了

大语言模型 (LLM) 压缩一直备受关注,后训练量化(Post-training Quantization) 是其中一种常用算法,但是现有 PTQ 方法大多数都是 integer 量化,且当比特数低于 8 时,量化后模型的准确率会下降非常多。想较于 Integer (INT)...

2023-11-22
1

nccl-test 使用指引

nccl-test 工具是 nvidia 开源的一项用于测试 NCCL 集合通信的工具。可以用于检测集合通信是否正常、压测集合通信速率。官方开源地址:https://github.com/NVIDIA/nccl-tests...

2023-11-22
1

【腾讯云 HAI域探秘】完蛋,我被LLM包围了(基于HAI+ChatGLM-6B+CloudStudio)

ChatGPT(全名:Chat Generative Pre-trained Transformer),是OpenAI研发的一款聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够基于在预训练阶段所见的模式和统计规律,来生成回答,...

2023-11-21
1

反思RLHF,如何更加高效训练有偏好的LLM

当前 LLM 蓬勃发展,各种模型和方法层出不穷,但总体看来,但是朝着以下3点目标前进:

2023-11-20
0

LLM4Rec的一点小总结和分享

最近看了一些LLM4Rec的论文,做了一丢丢小分享和小总结,这里也分享给大家,希望有所帮助。

2023-11-19
1

解决LLaMA、BERT等部署难题:首个4-bit浮点量化LLM来了

大语言模型 (LLM) 压缩一直备受关注,后训练量化(Post-training Quantization) 是其中一种常用算法,但是现有 PTQ 方法大多数都是 integer 量化,且当比特数低于 8 时,量化后模型的准确率会下降非常多。想较于 Integer (INT)...

2023-11-18
1

解决LLaMA、BERT等部署难题:首个4-bit浮点量化LLM来了

大语言模型 (LLM) 压缩一直备受关注,后训练量化(Post-training Quantization) 是其中一种常用算法,但是现有 PTQ 方法大多数都是 integer 量化,且当比特数低于 8 时,量化后模型的准确率会下降非常多。想较于 Integer (INT)...

2023-11-18
1

浅谈大模型训练排障平台的建设

OpenAI的Chat-GPT为我们揭示了通用人工智能的潜力,而GPT4-Turbo的发布进一步拓宽了我们对通用人工智能的想象边界,国内各种大型模型如同雨后春笋般涌现。同时,大模型训练所带来的各种工程化问题也接踵而至。大模型训练通...

2023-11-17
1

EMNLP2023 | 基于显式证据推理的few-shot关系抽取CoT

Few-shot关系提取涉及使用有限数量的注释样本识别文本中两个特定实体之间的关系类型。通过应用元学习和神经图技术,已经出现了对这个问题的各种解决方案,这些技术通常需要训练过程进行调整。...

2023-11-17
0