Avoidance Decoding for Diverse Multi-Branch Story Generation

📄 arXiv: 2509.02170v2 📥 PDF

作者: Kyeongman Park, Nakyeong Yang, Kyomin Jung

分类: cs.CL, cs.AI

发布日期: 2025-09-02 (更新: 2025-09-03)


💡 一句话要点

提出Avoidance Decoding,解决LLM故事生成中多样性不足和重复性问题。

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 故事生成 大型语言模型 解码策略 多样性 避免重复

📋 核心要点

  1. 大型语言模型在故事生成中存在重复性高、多样性不足的问题,限制了其创造潜力。
  2. Avoidance Decoding通过惩罚与历史输出的相似性,鼓励模型探索更多样化的故事分支。
  3. 实验表明,该方法显著提升了故事生成的多样性,降低了重复率,并有效避免了文本退化。

📝 摘要(中文)

大型语言模型(LLMs)在故事生成等任务中,由于输入提示相同,往往产生重复和单调的输出,缺乏创造性多样性。为了应对这一挑战,我们提出了一种新的解码策略,即Avoidance Decoding,通过惩罚与先前生成输出的相似性来修改token logits,从而鼓励更多样化的多分支故事。这种惩罚自适应地平衡了两种相似性度量:(1)概念级相似性惩罚,优先在早期阶段使用,以实现初始故事概念的多样化;(2)叙事级相似性惩罚,在后期阶段逐渐强调,以确保自然而多样的情节发展。值得注意的是,与强大的基线相比,我们的方法实现了高达2.6倍的输出多样性,并将重复性平均降低了30%,同时有效地缓解了文本退化。此外,我们发现我们的方法激活了更广泛的神经元,表明它利用了模型固有的创造力。

🔬 方法详解

问题定义:现有的大型语言模型在进行故事生成时,容易产生重复和单调的内容,缺乏新颖性和多样性。这是因为在解码过程中,模型倾向于选择概率最高的token序列,导致生成的故事缺乏创造性。现有的方法难以有效地平衡故事的连贯性和多样性,容易陷入局部最优解。

核心思路:Avoidance Decoding的核心思想是在解码过程中,对与已生成内容相似的token进行惩罚,从而鼓励模型探索不同的故事走向。通过动态调整惩罚力度,在故事生成的不同阶段侧重不同的相似性度量,以实现更好的多样性和连贯性平衡。

技术框架:该方法主要包含以下几个阶段:1) 使用LLM进行故事生成;2) 计算当前token与已生成故事的概念级相似度和叙事级相似度;3) 根据相似度计算惩罚项,并调整token的logits;4) 根据调整后的logits选择下一个token,重复上述过程直到故事生成完成。

关键创新:该方法最重要的创新在于提出了自适应的相似性惩罚机制。它区分了概念级相似性和叙事级相似性,并在故事生成的不同阶段动态调整两种相似性度量的权重。在故事生成的早期阶段,侧重于概念级相似性惩罚,以鼓励模型探索不同的故事主题;在故事生成的后期阶段,侧重于叙事级相似性惩罚,以保证故事的连贯性和流畅性。

关键设计:概念级相似性通过计算当前token的embedding与已生成故事的embedding的余弦相似度来衡量。叙事级相似性则通过计算当前token与已生成故事的n-gram overlap来衡量。惩罚项的计算公式为:penalty = λ_concept * concept_similarity + λ_narrative * narrative_similarity,其中λ_concept和λ_narrative是动态调整的权重参数,用于控制两种相似性惩罚的力度。

📊 实验亮点

实验结果表明,Avoidance Decoding在故事生成任务中显著提升了输出的多样性,最高可达2.6倍,同时将重复率平均降低了30%。与现有的强基线方法相比,该方法在多样性和连贯性之间取得了更好的平衡,并有效缓解了文本退化问题。此外,研究还发现该方法能够激活模型中更广泛的神经元,表明其能够更好地利用模型的内在创造力。

🎯 应用场景

该研究成果可应用于各种需要生成多样化文本内容的场景,例如故事创作、剧本生成、游戏剧情设计等。通过提升生成内容的多样性和创造性,可以为用户提供更丰富的体验,并激发更多的创作灵感。此外,该方法还可以应用于对话生成、文本摘要等任务,以提高生成文本的质量和多样性。

📄 摘要(原文)

Large Language Models (LLMs) often generate repetitive and monotonous outputs, especially in tasks like story generation, due to limited creative diversity when given the same input prompt. To address this challenge, we propose a novel decoding strategy, Avoidance Decoding, that modifies token logits by penalizing similarity to previously generated outputs, thereby encouraging more diverse multi-branch stories. This penalty adaptively balances two similarity measures: (1) Concept-level Similarity Penalty, which is prioritized in early stages to diversify initial story concepts, and (2) Narrative-level Similarity Penalty, which is increasingly emphasized later to ensure natural yet diverse plot development. Notably, our method achieves up to 2.6 times higher output diversity and reduces repetition by an average of 30% compared to strong baselines, while effectively mitigating text degeneration. Furthermore, we reveal that our method activates a broader range of neurons, demonstrating that it leverages the model's intrinsic creativity.