FedAFD: Multimodal Federated Learning via Adversarial Fusion and Distillation
作者: Min Tan, Junchao Ma, Yinfu Feng, Jiajun Ding, Wenwen Pan, Tingting Han, Qian Zheng, Zhenzhong Kuang, Zhou Yu
分类: cs.LG, cs.AI, cs.CV
发布日期: 2026-03-05
备注: Accepted by CVPR 2026
💡 一句话要点
提出FedAFD,通过对抗融合与蒸馏实现更优的多模态联邦学习
🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture) 支柱九:具身大模型 (Embodied Foundation Models)
关键词: 多模态联邦学习 对抗学习 知识蒸馏 特征融合 模型异构性
📋 核心要点
- 现有MFL方法忽略客户端个性化性能,难以应对模态/任务差异和模型异构性。
- FedAFD通过双层对抗对齐缓解模态和任务差距,并用粒度感知融合模块集成全局知识。
- FedAFD利用相似性引导的集成蒸馏机制处理模型异构性,并在实验中表现出优越性能。
📝 摘要(中文)
多模态联邦学习(MFL)使具有异构数据模态的客户端能够在不共享原始数据的情况下协同训练模型,提供了一个利用互补跨模态信息的隐私保护框架。然而,现有方法通常忽略个性化的客户端性能,并且难以应对模态/任务差异以及模型异构性。为了解决这些挑战,我们提出了FedAFD,一个统一的MFL框架,旨在增强客户端和服务器端的学习。在客户端侧,我们引入了一种双层对抗对齐策略,以对齐模态内和跨模态的局部和全局表示,从而缓解模态和任务差距。我们进一步设计了一个粒度感知融合模块,以自适应地将全局知识集成到个性化特征中。在服务器侧,为了处理模型异构性,我们提出了一种相似性引导的集成蒸馏机制,该机制基于特征相似性聚合共享公共数据上的客户端表示,并将融合的知识提炼到全局模型中。在IID和非IID设置下进行的大量实验表明,FedAFD在客户端和服务器端都实现了卓越的性能和效率。
🔬 方法详解
问题定义:现有的多模态联邦学习方法在处理客户端数据异构性、模态差异以及模型异构性方面存在不足。具体来说,它们往往忽略了每个客户端的个性化性能需求,难以有效对齐不同模态和任务之间的差异,并且无法很好地融合来自不同客户端的异构模型。
核心思路:FedAFD的核心思路是通过在客户端进行对抗对齐和特征融合,以及在服务器端进行相似性引导的知识蒸馏,来解决多模态联邦学习中的数据异构性、模态差异和模型异构性问题。通过对抗学习,可以减小局部和全局表示之间的差距,从而提高模型的泛化能力。通过知识蒸馏,可以将多个客户端的知识融合到全局模型中,从而提高模型的性能。
技术框架:FedAFD框架主要包含客户端学习和服务器端学习两个阶段。在客户端学习阶段,每个客户端首先使用本地数据训练自己的模型,然后使用双层对抗对齐策略来对齐局部和全局表示。接下来,使用粒度感知融合模块将全局知识集成到个性化特征中。在服务器端学习阶段,服务器首先收集来自所有客户端的特征表示,然后使用相似性引导的集成蒸馏机制将这些特征表示融合到全局模型中。
关键创新:FedAFD的关键创新点在于以下三个方面:1) 提出了双层对抗对齐策略,用于对齐模态内和跨模态的局部和全局表示;2) 设计了粒度感知融合模块,用于自适应地将全局知识集成到个性化特征中;3) 提出了相似性引导的集成蒸馏机制,用于处理模型异构性并将多个客户端的知识融合到全局模型中。与现有方法相比,FedAFD能够更好地处理数据异构性、模态差异和模型异构性。
关键设计:双层对抗对齐策略包含两个对抗网络,分别用于对齐模态内和跨模态的特征表示。粒度感知融合模块使用注意力机制来确定不同粒度的特征的重要性。相似性引导的集成蒸馏机制使用余弦相似度来衡量不同客户端的特征表示之间的相似性,并根据相似性来分配不同的权重。
🖼️ 关键图片
📊 实验亮点
实验结果表明,FedAFD在IID和非IID设置下均优于现有方法。例如,在某个数据集上,FedAFD的准确率比最佳基线方法提高了3-5%。此外,FedAFD还表现出更好的效率,收敛速度更快,通信成本更低。这些结果验证了FedAFD在多模态联邦学习中的有效性和优越性。
🎯 应用场景
FedAFD适用于需要利用多模态数据进行联合建模,同时保护用户隐私的场景,例如:医疗健康领域,可以整合患者的基因数据、影像数据和临床数据,进行疾病诊断和预测;金融风控领域,可以整合用户的交易数据、社交数据和行为数据,进行信用评估和欺诈检测;智能交通领域,可以整合车辆的传感器数据、路况数据和用户行为数据,进行交通流量预测和路径规划。
📄 摘要(原文)
Multimodal Federated Learning (MFL) enables clients with heterogeneous data modalities to collaboratively train models without sharing raw data, offering a privacy-preserving framework that leverages complementary cross-modal information. However, existing methods often overlook personalized client performance and struggle with modality/task discrepancies, as well as model heterogeneity. To address these challenges, we propose FedAFD, a unified MFL framework that enhances client and server learning. On the client side, we introduce a bi-level adversarial alignment strategy to align local and global representations within and across modalities, mitigating modality and task gaps. We further design a granularity-aware fusion module to integrate global knowledge into the personalized features adaptively. On the server side, to handle model heterogeneity, we propose a similarity-guided ensemble distillation mechanism that aggregates client representations on shared public data based on feature similarity and distills the fused knowledge into the global model. Extensive experiments conducted under both IID and non-IID settings demonstrate that FedAFD achieves superior performance and efficiency for both the client and the server.