Position: Vector Prompt Interfaces Should Be Exposed to Enable Customization of Large Language Models

📄 arXiv: 2603.04292v1 📥 PDF

作者: Liangwei Yang, Shiyu Wang, Haolin Chen, Rithesh Murthy, Ming Zhu, Jielin Qiu, Zixiang Chen, Juntao Tan, Jianguo Zhang, Zhiwei Liu, Wenting Zhao, Silvio Savarese, Caiming Xiong, Huan Wang, Shelby Heinecke

分类: cs.CL

发布日期: 2026-03-04


💡 一句话要点

建议开放向量提示接口以实现大语言模型的可定制化

🎯 匹配领域: 支柱九:具身大模型 (Embodied Foundation Models)

关键词: 大语言模型 定制化 向量提示 提示工程 模型接口

📋 核心要点

  1. 现有文本提示定制LLM的方式在可扩展性和稳定性方面存在瓶颈,难以满足实际应用需求。
  2. 论文建议模型提供商开放向量提示输入接口,以便更有效地定制LLM,实现更精细的控制。
  3. 实验表明,向量提示调优效果优于文本提示,且具有独特的全局注意力模式,风险可控。

📝 摘要(中文)

随着大型语言模型(LLMs)从研究原型过渡到实际系统,定制化已成为一个核心瓶颈。虽然文本提示已经可以定制LLM的行为,但我们认为,纯文本提示并不构成适用于可扩展、稳定和仅推理定制的合适控制接口。本文提出,模型提供商应公开向量提示输入,作为定制LLM公共接口的一部分。我们通过诊断证据支持这一观点,这些证据表明,向量提示调优随着监督的增加而持续改进,而基于文本的提示优化则过早饱和,并且向量提示表现出密集的全局注意力模式,表明存在独特的控制机制。我们进一步讨论了在实际部署约束下,仅推理定制的重要性日益增加,以及在标准黑盒威胁模型下,公开向量提示并不一定会从根本上增加模型泄露的风险。最后,我们呼吁社区重新思考提示接口,将其作为LLM定制的核心组成部分。

🔬 方法详解

问题定义:现有的大语言模型定制方法主要依赖于文本提示,这种方法存在局限性。文本提示的优化容易饱和,难以实现精细化的控制,并且在实际部署中,需要考虑可扩展性、稳定性和推理效率等问题。因此,需要一种更有效的定制接口,能够充分利用模型的内部表示,实现更灵活、更强大的定制能力。

核心思路:论文的核心思路是,将向量提示作为一种新的定制接口,暴露给用户。向量提示可以直接作用于模型的内部表示,从而实现更精细的控制。与文本提示相比,向量提示具有更高的表达能力和更强的优化潜力。通过优化向量提示,可以更好地调整模型的行为,使其适应特定的任务或场景。

技术框架:论文并没有提出一个具体的模型架构或训练流程,而是一个接口设计的建议。核心在于模型提供方需要开放向量提示的输入接口,允许用户通过向量来影响模型的行为。用户可以使用各种优化算法来调整向量提示,以达到定制模型的目的。这种方法可以与现有的文本提示方法相结合,形成一种混合的定制方案。

关键创新:论文的关键创新在于提出了向量提示作为一种新的定制接口。与传统的文本提示相比,向量提示具有以下优势:1) 更高的表达能力,可以更精细地控制模型的行为;2) 更强的优化潜力,可以通过优化算法来自动调整提示;3) 更好的可扩展性,可以应用于各种不同的任务和场景。

关键设计:论文并没有涉及具体的参数设置或网络结构的设计。关键在于如何设计向量提示的表示方式,以及如何将其有效地注入到模型中。一种可能的设计是,将向量提示作为模型的输入,与文本输入一起传递到模型的各个层。另一种设计是,将向量提示作为模型的内部状态,用于调整模型的激活值或注意力权重。具体的设计需要根据模型的具体结构和任务来确定。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

论文通过实验证明,向量提示调优效果优于文本提示,尤其是在监督信息充足的情况下。向量提示表现出密集的全局注意力模式,表明其具有独特的控制机制。此外,论文还指出,在标准黑盒威胁模型下,公开向量提示并不会显著增加模型泄露的风险。

🎯 应用场景

该研究成果可应用于各种需要定制化大语言模型的场景,例如智能客服、内容生成、代码生成等。通过开放向量提示接口,可以使开发者更灵活地调整模型行为,满足特定需求,从而提升用户体验和应用效果。未来,向量提示有望成为大语言模型定制化的主流方法。

📄 摘要(原文)

As large language models (LLMs) transition from research prototypes to real-world systems, customization has emerged as a central bottleneck. While text prompts can already customize LLM behavior, we argue that text-only prompting does not constitute a suitable control interface for scalable, stable, and inference-only customization. This position paper argues that model providers should expose \emph{vector prompt inputs} as part of the public interface for customizing LLMs. We support this position with diagnostic evidence showing that vector prompt tuning continues to improve with increasing supervision whereas text-based prompt optimization saturates early, and that vector prompts exhibit dense, global attention patterns indicative of a distinct control mechanism. We further discuss why inference-only customization is increasingly important under realistic deployment constraints, and why exposing vector prompts need not fundamentally increase model leakage risk under a standard black-box threat model. We conclude with a call to action for the community to rethink prompt interfaces as a core component of LLM customization.