BD-Merging: Bias-Aware Dynamic Model Merging with Evidence-Guided Contrastive Learning

📄 arXiv: 2603.03920v1 📥 PDF

作者: Yuhan Xie, Chen Lyu

分类: cs.LG, cs.AI

发布日期: 2026-03-04

备注: Accepted by CVPR 2026


💡 一句话要点

提出BD-Merging,通过证据引导对比学习实现偏差感知的动态模型融合,提升模型在分布偏移下的鲁棒性。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 模型融合 多任务学习 分布偏移 对比学习 不确定性建模 证据推理 鲁棒性

📋 核心要点

  1. 现有模型融合方法在测试时数据存在分布偏移时,可靠性不足,容易产生偏差预测,泛化能力下降。
  2. BD-Merging通过联合证据头学习不确定性,并提出邻接差异分数(ADS)量化样本对齐,指导对比学习细化表示。
  3. 实验结果表明,BD-Merging在各种任务上均优于现有模型融合方法,展现出更强的有效性和鲁棒性。

📝 摘要(中文)

模型融合(MM)已成为多任务学习(MTL)的一种可扩展范例,它能够在不重新访问原始训练数据的情况下集成多个特定于任务的模型。尽管最近取得了进展,但MM在测试时分布偏移下的可靠性仍未得到充分理解。大多数现有的MM方法通常假设测试数据是干净的,并且在分布上与训练和辅助源对齐。然而,这种假设在实践中很少成立,通常会导致有偏差的预测和泛化能力下降。为了解决这个问题,我们提出了BD-Merging,这是一个偏差感知的无监督模型融合框架,它显式地对不确定性进行建模,以在分布偏移下实现自适应可靠性。首先,BD-Merging引入了一个联合证据头,用于学习统一标签空间上的不确定性,从而捕获MM中的跨任务语义依赖关系。其次,在此证据基础上,我们提出了一个邻接差异分数(ADS),用于量化相邻样本之间的证据对齐。第三,在ADS的指导下,一种差异感知的对比学习机制通过对齐一致的样本和分离冲突的样本来细化融合表示。结合一般的无监督学习,这个过程训练了一个去偏差的路由器,该路由器在每个样本的基础上自适应地分配特定于任务或特定于层的权重,从而有效地减轻分布偏移的不利影响。跨各种任务的广泛实验表明,与最先进的MM基线相比,BD-Merging实现了卓越的有效性和鲁棒性。

🔬 方法详解

问题定义:现有模型融合方法在测试数据存在分布偏移时,性能会显著下降。这些方法通常假设测试数据与训练数据分布一致,但在实际应用中,这种假设往往不成立,导致模型预测产生偏差,泛化能力受损。因此,如何提升模型融合在分布偏移下的鲁棒性是一个关键问题。

核心思路:BD-Merging的核心思路是通过显式建模不确定性,并利用对比学习来减少分布偏移带来的偏差。具体来说,它首先学习一个联合证据头来估计预测的不确定性,然后利用这个不确定性来指导对比学习,从而使模型能够区分一致的样本和冲突的样本,最终实现去偏差的模型融合。

技术框架:BD-Merging主要包含以下几个模块:1) 联合证据头:用于学习统一标签空间上的不确定性,捕获跨任务语义依赖关系。2) 邻接差异分数(ADS):用于量化相邻样本之间的证据对齐程度。3) 差异感知对比学习:利用ADS指导对比学习,对齐一致的样本,分离冲突的样本,从而细化融合表示。4) 去偏差路由器:根据学习到的表示,自适应地分配特定于任务或特定于层的权重。

关键创新:BD-Merging的关键创新在于:1) 引入了联合证据头来显式建模不确定性,这使得模型能够更好地感知分布偏移。2) 提出了邻接差异分数(ADS)来量化样本之间的对齐程度,这为对比学习提供了有效的指导信号。3) 设计了差异感知对比学习机制,能够有效地减少分布偏移带来的偏差。与现有方法相比,BD-Merging能够更有效地利用未标记数据来提升模型在分布偏移下的鲁棒性。

关键设计:联合证据头采用Dirichlet分布来建模预测的不确定性。邻接差异分数(ADS)基于样本的证据分布之间的差异来计算。对比学习损失函数的设计考虑了ADS的权重,使得模型更加关注冲突的样本。去偏差路由器使用一个神经网络来学习样本的权重,该网络的输入是融合后的表示。

🖼️ 关键图片

fig_0
fig_1
fig_2

📊 实验亮点

实验结果表明,BD-Merging在多个数据集和任务上均优于现有的模型融合方法。例如,在XXX数据集上,BD-Merging相比于SOTA方法提升了X%。此外,BD-Merging在分布偏移的情况下,性能下降幅度更小,展现出更强的鲁棒性。

🎯 应用场景

BD-Merging可应用于各种多任务学习场景,尤其是在测试数据与训练数据存在分布差异的情况下。例如,在自动驾驶中,不同城市的数据分布可能存在差异,BD-Merging可以用于融合不同城市的模型,提升模型在新的城市环境下的性能。此外,该方法还可以应用于医疗诊断、金融风控等领域,提升模型在复杂环境下的鲁棒性和泛化能力。

📄 摘要(原文)

Model Merging (MM) has emerged as a scalable paradigm for multi-task learning (MTL), enabling multiple task-specific models to be integrated without revisiting the original training data. Despite recent progress, the reliability of MM under test-time distribution shift remains insufficiently understood. Most existing MM methods typically assume that test data are clean and distributionally aligned with both the training and auxiliary sources. However, this assumption rarely holds in practice, often resulting in biased predictions with degraded generalization. To address this issue, we present BD-Merging, a bias-aware unsupervised model merging framework that explicitly models uncertainty to achieve adaptive reliability under distribution shift. First, BD-Merging introduces a joint evidential head that learns uncertainty over a unified label space, capturing cross-task semantic dependencies in MM. Second, building upon this evidential foundation, we propose an Adjacency Discrepancy Score (ADS) that quantifies evidential alignment among neighboring samples. Third, guided by ADS, a discrepancy-aware contrastive learning mechanism refines the merged representation by aligning consistent samples and separating conflicting ones. Combined with general unsupervised learning, this process trains a debiased router that adaptively allocates task-specific or layer-specific weights on a per-sample basis, effectively mitigating the adverse effects of distribution shift. Extensive experiments across diverse tasks demonstrate that BD-Merging achieves superior effectiveness and robustness compared to state-of-the-art MM baselines.