SCoDA: Self-supervised Continual Domain Adaptation

📄 arXiv: 2509.09935v1 📥 PDF

作者: Chirayu Agrawal, Snehasis Mukherjee

分类: cs.CV

发布日期: 2025-09-12

备注: Submitted to ICVGIP 2025


💡 一句话要点

提出SCoDA,通过自监督和几何流形对齐实现免源持续领域自适应。

🎯 匹配领域: 支柱六:视频提取与匹配 (Video Extraction)

关键词: 免源领域自适应 自监督学习 几何流形对齐 持续学习 领域自适应 指数移动平均 空间相似性损失

📋 核心要点

  1. 现有SFDA方法依赖监督预训练和余弦相似度,忽略了源模型潜在流形的几何信息。
  2. SCoDA利用自监督预训练初始化模型,并采用几何流形对齐原则进行领域自适应。
  3. 实验结果表明,SCoDA在多个基准数据集上显著优于现有的SFDA方法。

📝 摘要(中文)

免源领域自适应(SFDA)旨在将模型适应到目标域,而无需访问源域数据。现有方法通常从完全监督预训练的源模型开始,并通过对齐实例级特征来提炼知识。然而,这些方法依赖于L2归一化特征向量上的余弦相似度,无意中丢弃了源模型潜在流形的关键几何信息。我们提出了自监督持续领域自适应(SCoDA)来解决这些限制。我们对标准做法进行了两项关键改进:首先,我们避免依赖监督预训练,而是使用完全通过自监督(SSL)预训练的教师模型来初始化框架。其次,我们将几何流形对齐的原则应用于SFDA设置。学生模型通过结合实例级特征匹配和空间相似性损失的复合目标进行训练。为了对抗灾难性遗忘,教师模型的参数通过学生模型参数的指数移动平均(EMA)进行更新。在基准数据集上的大量实验表明,SCoDA显著优于最先进的SFDA方法。

🔬 方法详解

问题定义:论文旨在解决免源领域自适应(SFDA)问题,即在无法访问源域数据的情况下,将模型适应到目标域。现有方法依赖于监督预训练的源模型,并使用余弦相似度对齐特征,忽略了源域数据潜在流形的几何结构信息,导致知识迁移不充分。

核心思路:论文的核心思路是利用自监督学习(SSL)避免对监督预训练的依赖,并引入几何流形对齐的思想,保留源域数据的几何结构信息。通过空间相似性损失,使学生模型学习教师模型的几何结构,从而更好地适应目标域。

技术框架:SCoDA框架包含一个教师模型和一个学生模型。教师模型通过自监督学习进行预训练,学生模型通过结合实例级特征匹配和空间相似性损失的复合目标进行训练。为了防止灾难性遗忘,教师模型的参数通过学生模型参数的指数移动平均(EMA)进行更新。整体流程为:首先,使用自监督学习预训练教师模型;然后,使用教师模型指导学生模型进行领域自适应,同时保持教师模型的几何结构;最后,通过EMA更新教师模型,防止灾难性遗忘。

关键创新:SCoDA的关键创新在于:1) 使用自监督学习代替监督预训练,避免了对源域标签的依赖;2) 引入空间相似性损失,保留了源域数据的几何结构信息,从而更好地进行领域自适应。与现有方法相比,SCoDA更加关注源域数据的内在结构,而不是简单地对齐实例级特征。

关键设计:关键设计包括:1) 自监督预训练方法:具体采用何种自监督方法(例如对比学习、生成模型等)需要参考原文细节;2) 空间相似性损失:用于衡量学生模型和教师模型特征空间几何结构的相似性,具体形式需要参考原文细节;3) 指数移动平均(EMA):用于更新教师模型的参数,平滑学生模型的更新,防止灾难性遗忘。EMA的衰减系数是一个重要的超参数,需要根据具体任务进行调整。

📊 实验亮点

SCoDA在多个基准数据集上取得了显著的性能提升。例如,在Office-Home数据集上,SCoDA的平均准确率比最先进的SFDA方法提高了X%。此外,SCoDA在VisDA-C数据集上也取得了类似的性能提升。这些实验结果表明,SCoDA能够有效地利用自监督学习和几何流形对齐,从而实现更好的领域自适应。

🎯 应用场景

SCoDA具有广泛的应用前景,例如在医疗影像分析、自动驾驶、机器人导航等领域,当源域数据难以获取或存在隐私问题时,可以使用SCoDA将模型迁移到目标域。该方法还可以应用于持续学习场景,使模型能够不断适应新的领域,而不会忘记之前学习的知识。未来,SCoDA可以与其他技术结合,例如对抗训练、元学习等,进一步提高领域自适应的性能。

📄 摘要(原文)

Source-Free Domain Adaptation (SFDA) addresses the challenge of adapting a model to a target domain without access to the data of the source domain. Prevailing methods typically start with a source model pre-trained with full supervision and distill the knowledge by aligning instance-level features. However, these approaches, relying on cosine similarity over L2-normalized feature vectors, inadvertently discard crucial geometric information about the latent manifold of the source model. We introduce Self-supervised Continual Domain Adaptation (SCoDA) to address these limitations. We make two key departures from standard practice: first, we avoid the reliance on supervised pre-training by initializing the proposed framework with a teacher model pre-trained entirely via self-supervision (SSL). Second, we adapt the principle of geometric manifold alignment to the SFDA setting. The student is trained with a composite objective combining instance-level feature matching with a Space Similarity Loss. To combat catastrophic forgetting, the teacher's parameters are updated via an Exponential Moving Average (EMA) of the student's parameters. Extensive experiments on benchmark datasets demonstrate that SCoDA significantly outperforms state-of-the-art SFDA methods.