论文解读(CDCL)《Cross-domain Contrastive Learning for Unsupervised Domain Adaptation》

论文信息

论文标题:Cross-domain Contrastive Learning for Unsupervised Domain Adaptation
论文作者:Rui Wang, Zuxuan Wu, Zejia Weng, Jingjing Chen, Guo-Jun Qi, Yu-Gang Jiang
论文来源:aRxiv 2022
论文地址:download 
论文代码:download

1 Introduction

  无监督域自适应(UDA)的目的是将从一个完全标记的源域学习到的知识转移到一个不同的未标记的目标域。 大多数现有的 UDA 方法通过最小化域间的特征距离来学习域不变的特征表示。

  UDA 研究方向:

    • discrepancy-based methods:最小化不同域之间的差异;  
    • adversarial-based methods:为域鉴别器设计一个对抗性优化目标,并通过对抗性学习获得域不变表示;
    • domain-adaptive dictionary learning;
    • multi-modality representation learning;
    • feature disentanglement;
  Source Data-free UDA:近年来,由于UDA方法在实际应用中对源数据隐私性的关注,提出了无源数据的 UDA 方法。无源数据 UDA 的主要挑战是,在源域上的预先训练好的模型应该适应于目标域,而无需访问源数据。
  在训练过程中,UDA 假设可以访问源域中的所有标记样本以及来自目标域的未标记图像。
  Given a fully-labeled source domain dataset with  $N_{s}$  image and label pairs  $D_{s}=   left(mathcal{X}_{s}, mathcal{Y}_{s}right)=left{left(x_{s}^{i}, y_{s}^{i}right)right}_{i=1}^{N_{s}}$ , and an unlabeled dataset in a target domain with  $N_{t}$  images  $D_{t}=X_{t}=left{x_{t}^{i}right}_{i=1}^{N_{t}}$ , both  $left{x_{s}^{i}right}$  and  $left{x_{t}^{i}right}$  belong to the same set of  $M$  predefined categories. We use  $y_{s}^{i} in{0,1, ldots, M-1}$  to represent the label of the  $i-text{th}$ source sample while the labels of target samples are unknown during training. UDA aims to predict labels of testing samples in the target domain using a model  $f_{t}: mathcal{X}_{t} rightarrow mathcal{Y}_{t}$  trained on  $D_{s} cup D_{t}$ . The model, parameterized by  $theta$  consists of a feature encoder  $g: X_{t} rightarrow mathbb{R}^{d}$  and a classifier  $h: mathbb{R}^{d} rightarrow mathbb{R}^{M}$ , where  $d$  is the dimension of features produced by the encoder.

  我们的目标是通过对比自监督学习来调整源域和目标域之间的特征分布。

2 方法

A. Contrastive Learning with InfoNCE

NT-Xent loss

    $mathcal{L}=-sumlimits _{boldsymbol{v}^{+} in V^{+}} log frac{exp left(boldsymbol{u}^{top} boldsymbol{v}^{+} / boldsymbol{tau}right)}{exp left(boldsymbol{u}^{top} boldsymbol{v}^{+} / boldsymbol{tau}right)+sumlimits_{boldsymbol{v}^{-} in V^{-}} exp left(boldsymbol{u}^{top} boldsymbol{v}^{-} / boldsymbol{tau}right)}  quadquadquad(1)$

B. Cross-domain Contrastive Learning

  考虑目标域样本$boldsymbol{x}_{t}^{i}$ 的 $ell_{2}text{-normalized}$ 特征 $boldsymbol{z}_{t}^{i}$ 作为锚,它的正样本为同一类的源域样本,其特征表示为 $boldsymbol{z}_{s}^{p}$,那么跨域对比损失:

    $mathcal{L}_{C D C}^{t, i}=-frac{1}{left|P_{s}left(hat{y}_{t}^{i}right)right|} sumlimits _{p in P_{s}left(hat{y}_{t}^{i}right)} log frac{exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{z}_{s}^{p} / tauright)}{sumlimits_{j in I_{s}} exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{z}_{s}^{j} / tauright)} quadquadquad(2)$

  其中,$I_{S}$ 代表一个 mini-batch 中的源域样本集合,$P_{s}left(hat{y}_{t}^{i}right)=left{k mid y_{s}^{k}=hat{y}_{t}^{i}right}$ 代表源域和目标域样本 $x_{t}^{i}$ 有相同标签;

  同理也可以使用源域样本作为锚,公式类似上面,交叉域对比损失如下:

    $mathcal{L}_{C D C}=sumlimits _{i=1}^{N_{s}} mathcal{L}_{C D C}^{s, i}+sumlimits_{i=1}^{N_{t}} mathcal{L}_{C D C}^{t, i} quadquadquad(3)$

  最后,结合跨域对比损失与在源域上强制执行的标准跨熵损失 $mathcal{L}_{C E}$,我们得到了最终的训练目标函数:

    $underset{boldsymbol{theta}}{operatorname{minimize}} quad mathcal{L}_{C E}left(boldsymbol{theta} ; D_{s}right)+lambda mathcal{L}_{C D C}left(boldsymbol{theta} ; D_{s}, D_{t}right) quadquadquad(4)$

C. Pseudo Labels for the Target Domain

  在训练过程中,没有来自目标域的真实标签,因此利用 k-means 聚类产生伪标签。由于 K-means 对初始化很敏感,因此使用随机生成的集群不能保证与预定义类别相关的相关语义。为缓解这个问题,将簇的数量设置为类 $M$ 的数量,并使用来自源域的类原型作为初始簇。

  初始化集群中心与类原型的好处是双重的: (i) 源原型可以被视为目标原型的近似,因为使用的特性是高级和包含语义信息(ii)CDCL 的对齐相同类别的样本,这种近似将更准确的训练的继续。更正式地说,首先计算每个类别中源样本的质心作为相应的类原型,并将第 $m$ 类的初始簇中心 $O_{t}^{m}$ 定义为:

    $O_{t}^{m} leftarrow O_{s}^{m}=mathbb{E}_{i sim D_{s};, ; y_{s}^{i}=m} z_{s}^{i} quadquadquad(5)$

   即:源域同一类的嵌入平均作为初始质心。 

D. Source Data-free UDA

  Source data-free setting:提供了在源域上训练的模型,但由于数据安全的问题,源域数据是不能用的。形式上,目标是学习一个模型 $f_{t}: X_{t} rightarrow Y_{t}$ 并使用目标域无标签数据 $D_{t}$ 和源域上的预训练模型  $f_{s}: X_{s} rightarrow Y_{s}$ 去预测 $left{y_{t}^{i}right}_{i=1}^{N_{t}}$。

  Note:预训练模型 $f_{s}$ 是上文提到的通过交叉熵优化得到的。

  许多标准的 UDA 设置,假设在源域和目标域上共享相同的特征编码器,然而由于特征编码器不能同时在源域和目标域上训练,所以 Source Data-free UDA 无法实现。本文的 CDCL 在缺少源域数据的情况下面临的挑战是 :(1) form positive and negative pairs and (2) to compute source class prototypes。

  本文通过用训练模型 $𝑓_𝑠$ 的分类器权值替换源样本来解决这个问题。直觉是,预先训练模型的分类器层的权向量可以看作是在源域上学习到的每个类的原型特征。特别地,我们首先消除了全连通层的 bias ,并对分类器进行了归一化处理。假设 $boldsymbol{w}_{s}^{m}in boldsymbol{W}_{s}=left[boldsymbol{w}_{s}^{1}, ldots, boldsymbol{w}_{s}^{M}right]$ 代表从源域学到的 $M$ 分类器的权重向量,由于权值是规范化的,所以我们将它们用作类原型。当适应目标域时,冻结分类器层的参数,以保持源原型,并且只训练特征编码器。通过用源原型替换源样本,在源数据自由设置下的跨域对比损失可以写为:

    $mathcal{L}_{S D F-C D C}^{t, i}=-sumlimits_{m=1}^{M} mathbf{1}_{hat{y}_{t}^{i}=m} log frac{exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{w}_{s}^{m} / tauright)}{sumlimits _{j=1}^{M} exp left(boldsymbol{z}_{t}^{i^{top}} boldsymbol{w}_{S}^{j} / tauright)} quadquadquad(6)$

  类似地,通过聚类来估计目标域内样本的标签。然而,使用样本计算类原型是不可行了。相反,采用类权值向量做为类原型:
    $O_{t}^{m} leftarrow O_{s}^{m}=w_{s}^{m} quadquadquad(7)$

  source data-free UDA 的最终目标是:

    $operatorname{minimize} sumlimits _{i=1}^{N_{t}} mathcal{L}_{S D F-C D C}^{t, i} quadquadquad(8)$

算法概述:
论文解读(CDCL)《Cross-domain Contrastive Learning for Unsupervised Domain Adaptation》

 论文解读(CDCL)《Cross-domain Contrastive Learning for Unsupervised Domain Adaptation》

发表评论

相关文章