Towards Efficient Vision State Space Models via Token Merging

📄 arXiv: 2508.13599v1 📥 PDF

作者: Jinyoung Park, Minseok Son, Changick Kim

分类: cs.CV

发布日期: 2025-08-19

备注: under review


💡 一句话要点

提出MaMe以解决SSM模型计算效率问题

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 状态空间模型 计算效率 令牌合并 序列建模 计算机视觉 多模态应用 性能优化

📋 核心要点

  1. 现有的状态空间模型在计算效率上存在不足,限制了其在实际应用中的可扩展性。
  2. 本文提出的MaMe策略通过量化令牌重要性和保持序列信息流来提升SSM模型的效率。
  3. 实验结果显示,MaMe在多个任务中均优于现有方法,尤其在激进的令牌减少情况下表现出色。

📝 摘要(中文)

状态空间模型(SSMs)在计算机视觉领域展现出强大的能力,但提高其计算效率对于实际应用至关重要。虽然令牌减少是一种有效的模型效率提升方法,但在SSMs中应用时需谨慎考虑其独特的序列建模能力。本文提出了MaMe,一种针对SSM视觉模型的令牌合并策略,解决了量化令牌重要性和保持序列属性的两个关键挑战。我们的方案利用状态转移参数作为信息度量,并引入战略性令牌排列以保持序列信息流。大量实验表明,MaMe在微调和现成模型中均实现了优越的效率-性能权衡,尤其在激进的令牌减少下,保持了鲁棒性,避免了现有方法的显著性能下降。此外,MaMe在视频和音频领域也展现出强大的泛化能力,为多种SSM应用提升效率提供了有效方案。

🔬 方法详解

问题定义:本文旨在解决状态空间模型(SSMs)在计算效率上的不足,现有方法在令牌减少时往往导致性能显著下降。

核心思路:MaMe策略通过量化令牌的重要性,并设计战略性令牌排列,以保持序列信息流,从而提升模型的计算效率。

技术框架:MaMe的整体架构包括两个主要模块:首先是令牌重要性量化模块,利用状态转移参数作为信息度量;其次是令牌合并模块,通过优化排列来保持序列特性。

关键创新:MaMe的核心创新在于其独特的令牌合并策略,能够在保持序列信息的同时有效减少令牌数量,与现有方法相比,显著提升了模型的效率和鲁棒性。

关键设计:在设计中,状态转移参数被用作信息度量,令牌的排列策略经过精心设计,以确保信息流的连续性和完整性。此外,模型的损失函数和网络结构也经过调整,以适应新的令牌合并策略。

📊 实验亮点

实验结果表明,MaMe在多个基准测试中均优于现有的令牌减少方法,尤其在激进的令牌减少情况下,性能下降幅度小于20%,而其他方法则可能达到50%以上的性能损失。这表明MaMe在效率和性能之间实现了更好的平衡。

🎯 应用场景

该研究的潜在应用领域包括计算机视觉中的图像分类、视频分析和音频处理等。通过提升状态空间模型的计算效率,MaMe可以在资源受限的环境中实现更高效的模型部署,具有重要的实际价值和广泛的应用前景。

📄 摘要(原文)

State Space Models (SSMs) have emerged as powerful architectures in computer vision, yet improving their computational efficiency remains crucial for practical and scalable deployment.While token reduction serves as an effective approach for model efficiency, applying it to SSMs requires careful consideration of their unique sequential modeling capabilities.In this work, we propose MaMe, a token-merging strategy tailored for SSM-based vision models.MaMe addresses two key challenges: quantifying token importance and preserving sequential properties. Our approach leverages the state transition parameter $\mathbfΔ$ as an informativeness measure and introduces strategic token arrangements to preserve sequential information flow.Extensive experiments demonstrate that MaMe achieves superior efficiency-performance trade-offs for both fine-tuned and off-the-shelf models. Particularly, our approach maintains robustness even under aggressive token reduction where existing methods undergo significant performance degradation.Beyond image classification, MaMe shows strong generalization capabilities across video and audio domains, establishing an effective approach for enhancing efficiency in diverse SSM applications.