LaTeX Compilation: Challenges in the Era of LLMs

📄 arXiv: 2603.02873v1 📥 PDF

作者: Tianyou Liu, Ziqiang Li, Yansong Li, Xurui Liu

分类: cs.CL

发布日期: 2026-03-03

备注: 25 pages, 12 figures


💡 一句话要点

针对LLM时代TeX局限性,提出Mogan STEM编辑器以提升编译效率和LLM微调性能

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: LaTeX 大型语言模型 科学写作 结构化编辑器 编译效率 信息熵 Mogan STEM

📋 核心要点

  1. TeX在编译效率、语义生成和错误定位等方面存在局限性,难以满足LLM辅助科学写作的需求。
  2. Mogan STEM采用高效数据结构和快速渲染,提供了一种优于TeX的所见即所得的结构化编辑方案。
  3. 实验表明,Mogan在编译/渲染时间和LLM微调方面表现更优,尤其是在降低信息熵方面。

📝 摘要(中文)

随着大型语言模型(LLMs)越来越多地辅助科学写作,TeX的局限性和显著的token成本日益凸显。本文分析了TeX在编译和用户体验设计方面的根本缺陷,阐述了其在LLM时代编译效率、生成语义、错误定位和工具生态系统方面的不足。作为替代方案,本文介绍了一种所见即所得的结构化编辑器Mogan STEM。Mogan通过其高效的数据结构、快速渲染和按需插件加载,在上述方面优于TeX。大量的实验验证了Mogan在编译/渲染时间和LLM任务中的优势。此外,我们表明,由于Mogan的信息熵较低,使用.tmu(Mogan的文档格式)微调LLM比TeX更有效。因此,我们呼吁使用.tmu格式进行更大规模的LLM训练实验。

🔬 方法详解

问题定义:论文旨在解决TeX在大型语言模型(LLM)辅助科学写作时代所面临的挑战。TeX的痛点包括编译效率低下、生成的语义信息不足、错误定位困难以及工具生态系统不够完善,这些问题限制了LLM在科学写作领域的应用。特别是在处理大量公式和复杂结构时,TeX的token成本非常高昂。

核心思路:论文的核心思路是采用一种结构化的、所见即所得(WYSIWYG)的编辑器Mogan STEM来替代TeX。Mogan STEM通过高效的数据结构和快速渲染引擎,能够更有效地处理科学文档,并降低信息熵,从而提升LLM微调的效率。

技术框架:Mogan STEM的技术框架包括以下几个主要模块:1) 高效的数据结构,用于存储和管理文档内容;2) 快速渲染引擎,用于实时显示文档的排版效果;3) 按需插件加载机制,用于扩展编辑器的功能;4) 与LLM的接口,用于支持LLM辅助写作和微调。整体流程是从用户在Mogan STEM中编辑文档开始,编辑器将文档转换为.tmu格式,然后可以使用该格式进行LLM微调或生成最终的文档。

关键创新:论文最重要的技术创新点在于Mogan STEM的结构化编辑方式和高效的数据结构。与TeX的基于标记的排版方式不同,Mogan STEM采用结构化的数据表示,能够更清晰地表达文档的语义信息,从而降低信息熵。此外,Mogan STEM的快速渲染引擎能够实时显示文档的排版效果,提高了用户体验。

关键设计:Mogan STEM的关键设计包括:1) 采用树状结构存储文档内容,每个节点表示一个文档元素(如段落、公式、表格等);2) 使用增量渲染技术,只重新渲染发生变化的文档部分,从而提高渲染效率;3) 提供丰富的插件接口,允许用户自定义编辑器的功能;4) .tmu文件格式的设计,旨在降低文档的信息熵,更适合LLM的训练。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,Mogan STEM在编译/渲染时间上显著优于TeX。此外,使用.tmu格式微调LLM比使用TeX格式更有效,这表明Mogan STEM能够降低文档的信息熵,从而提升LLM的训练效率。具体的性能数据(如编译时间、渲染速度、LLM微调的收敛速度等)在论文中进行了详细的展示和对比。

🎯 应用场景

该研究成果可应用于科学论文写作、教育课件制作、技术文档编写等领域。Mogan STEM有望提升科学写作的效率和质量,降低LLM在科学写作领域的应用成本,并促进LLM在科学研究中的更广泛应用。未来,Mogan STEM可以进一步扩展其功能,例如支持更多的文档格式、提供更智能的写作辅助功能等。

📄 摘要(原文)

As large language models (LLMs) increasingly assist scientific writing, limitations and the significant token cost of TeX become more and more visible. This paper analyzes TeX's fundamental defects in compilation and user experience design to illustrate its limitations on compilation efficiency, generated semantics, error localization, and tool ecosystem in the era of LLMs. As an alternative, Mogan STEM, a WYSIWYG structured editor, is introduced. Mogan outperforms TeX in the above aspects by its efficient data structure, fast rendering, and on-demand plugin loading. Extensive experiments are conducted to verify the benefits on compilation/rendering time and performance in LLM tasks. What's more, we show that due to Mogan's lower information entropy, it is more efficient to use .tmu (the document format of Mogan) to fine-tune LLMs than TeX. Therefore, we launch an appeal for larger experiments on LLM training using the .tmu format.