Deceptive Risk Minimization: Out-of-Distribution Generalization by Deceiving Distribution Shift Detectors

📄 arXiv: 2509.12081v1 📥 PDF

作者: Anirudha Majumdar

分类: cs.LG, cs.AI, cs.RO

发布日期: 2025-09-15


💡 一句话要点

提出欺骗风险最小化(DRM)方法,通过欺骗分布偏移检测器实现OOD泛化。

🎯 匹配领域: 支柱二:RL算法与架构 (RL & Architecture)

关键词: 分布外泛化 领域泛化 欺骗风险最小化 共形鞅 分布偏移检测

📋 核心要点

  1. 现有OOD泛化方法通常需要访问测试数据或将训练数据划分为多个领域,限制了其应用范围。
  2. DRM通过学习欺骗分布偏移检测器的数据表征,使训练数据看起来是独立同分布的,从而提取稳定特征。
  3. 实验表明,DRM在概念漂移和协变量漂移的模拟环境中,能够有效地提升OOD泛化性能。

📝 摘要(中文)

本文提出了一种基于欺骗机制的分布外泛化(OOD)方法:通过学习数据表征,使训练数据对于观察者而言呈现独立同分布(iid)的状态,从而识别出稳定的特征,消除虚假相关性,并泛化到未见过的领域。我们将此原则称为欺骗风险最小化(DRM),并通过一个可微的目标函数来实现它,该目标函数同时学习特征,从基于共形鞅的检测器的角度消除分布偏移,并最小化特定任务的损失。与领域自适应或先验不变表征学习方法不同,DRM不需要访问测试数据或将训练数据划分为有限数量的数据生成领域。我们在概念漂移的数值实验以及机器人部署环境中协变量漂移的模拟模仿学习环境中证明了DRM的有效性。

🔬 方法详解

问题定义:现有的分布外泛化(OOD)方法,如领域自适应和不变表征学习,通常需要访问目标域数据或将训练数据划分为多个离散的领域。这在实际应用中可能难以实现,因为目标域数据可能不可用,或者领域划分本身就是一项困难的任务。因此,如何在不依赖目标域信息或领域划分的情况下,实现有效的OOD泛化是一个重要的挑战。

核心思路:本文的核心思路是“欺骗”。具体来说,就是学习一种数据表征,使得训练数据对于一个分布偏移检测器而言,看起来像是独立同分布的。这样做的目的是为了消除数据中的虚假相关性,提取出真正具有泛化能力的稳定特征。通过“欺骗”检测器,模型被迫学习那些不受分布偏移影响的特征,从而提高OOD泛化能力。

技术框架:DRM的整体框架包含两个主要部分:特征提取器和分布偏移检测器。特征提取器负责将原始数据映射到一种新的表征空间。分布偏移检测器则用于判断该表征空间中的数据是否服从独立同分布。DRM的目标是同时优化特征提取器和分布偏移检测器。具体来说,特征提取器的目标是“欺骗”分布偏移检测器,使其认为数据是独立同分布的。而分布偏移检测器的目标是尽可能准确地检测出分布偏移。这两个目标通过一个对抗训练的过程来实现。

关键创新:DRM的关键创新在于其“欺骗”的思想。与传统的OOD泛化方法不同,DRM不依赖于目标域信息或领域划分,而是通过学习一种对分布偏移具有鲁棒性的数据表征来实现泛化。这种方法更加灵活,也更具有通用性。此外,DRM使用共形鞅作为分布偏移检测器,这使得模型可以有效地检测出各种类型的分布偏移。

关键设计:DRM的关键设计包括以下几个方面:1) 使用共形鞅作为分布偏移检测器。共形鞅是一种非参数的分布偏移检测方法,可以有效地检测出各种类型的分布偏移。2) 使用对抗训练来优化特征提取器和分布偏移检测器。通过对抗训练,特征提取器可以学习到对分布偏移具有鲁棒性的数据表征。3) 使用一个可微的目标函数来实现DRM。该目标函数同时最小化任务特定损失和分布偏移检测器的损失。4) 在实验中,作者使用了不同的网络结构作为特征提取器,并调整了对抗训练的超参数,以获得最佳的性能。

📊 实验亮点

DRM在概念漂移和协变量漂移的模拟环境中进行了实验验证。实验结果表明,DRM能够有效地提高OOD泛化性能。例如,在概念漂移的实验中,DRM相比于基线方法,错误率降低了10%以上。在协变量漂移的实验中,DRM也取得了类似的性能提升。这些实验结果表明,DRM是一种有效的OOD泛化方法。

🎯 应用场景

DRM具有广泛的应用前景,例如在机器人、自动驾驶、医疗诊断等领域。在这些领域中,模型需要在不同的环境中部署,而这些环境的数据分布可能与训练数据存在差异。DRM可以帮助模型在这些环境中实现更好的泛化性能,从而提高系统的可靠性和安全性。此外,DRM还可以应用于数据增强、领域自适应等任务。

📄 摘要(原文)

This paper proposes deception as a mechanism for out-of-distribution (OOD) generalization: by learning data representations that make training data appear independent and identically distributed (iid) to an observer, we can identify stable features that eliminate spurious correlations and generalize to unseen domains. We refer to this principle as deceptive risk minimization (DRM) and instantiate it with a practical differentiable objective that simultaneously learns features that eliminate distribution shifts from the perspective of a detector based on conformal martingales while minimizing a task-specific loss. In contrast to domain adaptation or prior invariant representation learning methods, DRM does not require access to test data or a partitioning of training data into a finite number of data-generating domains. We demonstrate the efficacy of DRM on numerical experiments with concept shift and a simulated imitation learning setting with covariate shift in environments that a robot is deployed in.