点击下方卡片,关注「AiCharm」公众号
Subjects: cs.CV
1.ZipLoRA: Any Subject in Any Style by Effectively Merging LoRAs
标题:ZipLoRA:通过有效合并 LoRA 实现任何风格的任何主题
作者:Viraj Shah, Nataniel Ruiz, Forrester Cole, Erika Lu, Svetlana Lazebnik, Yuanzhen Li, Varun Jampani
文章链接:https://arxiv.org/abs/2311.13600
项目代码:https://ziplora.github.io/
摘要:
用于微调概念驱动个性化的生成模型的方法通常在主题驱动或风格驱动的生成中取得很好的结果。最近,低秩适应(LoRA)被提出作为实现概念驱动的个性化的参数有效方式。虽然最近的工作探索了单独的 LoRA 的组合来实现学习风格和主题的联合生成,但现有技术并不能可靠地解决这个问题;他们经常损害主题保真度或风格保真度。我们提出了 ZipLoRA,一种廉价且有效地合并独立训练的风格和主题 LoRA 的方法,以便实现以任何用户提供的风格生成任何用户提供的主题。对各种主题和风格组合的实验表明,ZipLoRA 可以生成令人信服的结果,在主题和风格保真度的基础上进行有意义的改进,同时保留重新上下文化的能力。
2.In-context Vectors: Making In Context Learning More Effective and Controllable Through Latent Space Steering
标题:上下文向量:通过潜在空间引导使上下文学习更加有效和可控
作者:Sheng Liu, Lei Xing, James Zou
文章链接:https://arxiv.org/abs/2311.06668
摘要:
大型语言模型 (LLM) 展示了新兴的上下文学习能力,它们可以根据示例演示来适应新任务。然而,上下文学习在许多情况下效果有限,难以定量控制并且占用上下文窗口空间。为了克服这些限制,我们提出了一种替代方法,将上下文学习重塑为上下文向量(ICV)。使用 ICV 有两个步骤。我们首先对演示示例使用前向传递,根据 LLM 的潜在嵌入创建上下文向量。该向量捕获有关预期任务的基本信息。在新查询中,我们没有在提示中添加演示,而是使用 ICV 转移 LLM 的潜在状态。ICV方法有几个好处:1)它使法学硕士能够更有效地遵循演示示例;2)通过调节ICV的大小,易于控制;3)通过删除上下文演示来减少提示的长度;4)ICV在计算上比微调效率高得多。我们证明,与标准情境学习相比,ICV 在安全、风格迁移、角色扮演和格式等各种任务上的微调具有更好的性能。此外,我们还表明,我们可以通过相应 ICV 上的简单向量算术灵活地教导 LLM 同时遵循不同类型的指令。
3.LLMs as Narcissistic Evaluators: When Ego Inflates Evaluation Scores
标题:大语言模型作为自恋评估者:当自我夸大评估分数时
作者:Yiqi Liu, Nafise Sadat Moosavi, Chenghua Lin
文章链接:https://arxiv.org/abs/2311.09766
摘要:
生成的文本内容的自动评估提出了 NLP 领域持续的挑战。鉴于现代语言模型 (LM) 在各种 NLP 任务中具有令人印象深刻的功能,使用这些模型来创建创新的评估指标以自动评估生成任务的趋势日益明显。本文研究了一个关键问题:语言模型驱动的评估指标是否本质上表现出偏向于由相同底层语言模型生成的文本的偏见?具体来说,我们评估基于 LM 的重要评估指标(即 BARTScore、T5Score 和 GPTScore)是否在摘要任务的背景下表现出对其各自底层 LM 的有利偏见。我们的研究结果揭示了一种潜在的偏见,当以无参考方式使用此类评估指标而不利用黄金摘要时,这种偏见尤其明显。这些结果强调,生成评估模型提供的评估可能会受到固有文本质量之外的因素的影响,这凸显了未来开发更可靠的评估协议的必要性。