前言

标题:Covariate Shift: A Review and Analysis on Classifiers
原文链接:Link
Github:NLP相关Paper笔记和代码复现
说明:阅读论文时进行相关思想、结构、优缺点,内容进行提炼和记录,论文和相关引用会标明出处,引用之处如有侵权,烦请告知删除。
转载请注明:DengBoCong

我们都知道在机器学习模型中,训练数据和测试数据是不同的阶段,并且,通常是是假定训练数据和测试数据点遵循相同的分布。但是实际上,模型的输入和输出的联合分布在训练数据和测试数据之间是不同的,这称为dataset shift。dataset shift的一种简单情况就是covariate shift,covariate shift仅输入分布发生变化,而在给定输入的输出条件分布保持不变。本文主要概述了现有covariate shift检测和自适应方法及其应用,同时基于包含合成数据和真实数据的四种数据集,提供了各种covariate shift自适应技术在分类算法上的实验效果分析。实验结果标明,使用Importance Reweighting(重要性重加权)方法和feature-dropping方法能够让机器学习模型在covariate shift问题的表现上有明显提高。

介绍

熟悉机器学习的小伙伴应该都知道,Supervised learning中涉及的步骤包括从真实来源收集数据,数据整合,数据转换,对已知数据进行训练和验证算法,最后将其应用于未知测试数据。所以为了提高这些Supervised learning算法的性能,数据质量起着重要作用。 可以基于各种角度来分析数据质量,例如数据复杂性,缺失值,噪声,数据不平衡,离群值,缩放值等。而在决定机器学习模型的性能中,起着重要作用的一种数据质量度量是dataset shift。它是下面提到的三种shifts的总称:

  • Covariate Shift:Change in the independent variables
  • Prior probability shift: Change in the target variable
  • Concept Shift: Change in the relationship between the independent and the target variable

在假设测试和训练数据中存在的点或实例属于相同的特征空间和相同的分布的假设下,常用的机器学习模型可以很好地工作,但是,当分布发生变化时,需要使用新的训练数据从头开始重建基础统计模型。

Covariate Shift一词描述为学习阶段和泛化阶段之间(训练数据和测试数据)输入变量“ X”的分布变化。虽然Covariate Shift是dataset shifts中研究最多的shifts类型,但没有很合适的确切定义。比如在机器学习的角度来看,这种预测性建模通常称为transfer learning,也有一些相似的名称,但是概念上的差异很小,例如population drift,concept drift, dataset shift。以下是文献中存在的几种Covariate Shift定义:

  • 令 $x$ 为解释变量或协变量,$q_1(x)$是评估预测时的概率密度,$q_0(x)$ 表示观察数据中的概率密度,则$q_0(x)\neq q_1(x)$ 的情况称为分布的Covariate Shift。
  • 产生特征向量 $x$ 及其相关类别标签 $y$ 的数据分布由于潜在变量 $t$ 而变化,因此当 $P(y|x,t_1)\neq P(y|x,t_2)$ 时,可以说发生了Covariate Shift。

Covariate Shift检测和自适应算法

可以通过使用以下公式给出的重要性权重来消除因Covariate Shift而导致的预测误差:
$$W(X)=\frac{p_{test}(X)}{p_{train}(X)} \tag{1}$$
其中 $p_{test}(X)$ 和 $p_{train}(X)$ 分别是在测试和训练数据集中找到输入 $X$ 的概率。公式(1)来自这样的直觉,即如果特定训练实例出现在测试集中的概率很高,则它必须获得更高的权重。$W(X)$ 给出每个训练输入点的重要性值,将其与这些点相乘将得出更准确的预测。但是,此值是先验未知的,因此需要从数据样本中估算其值,因此,接下来分别列出一些在该领域中引入的最重要的重要性估计方法。

Kernel Density Estimation (KDE)

KDE是一种非参数方法,用于获得随机变量的概率密度函数的近似值,公式(2)是高斯核方程,公式(3)是KDE的方程
$$K(x,x^{‘})=exp(\frac{-||x-x^{‘}||^2}{2\sigma^2})\tag{2}$$ $$\hat{p}(x)=\frac{1}{n(2\pi \sigma^2)^{\frac{d}{2}}}\sum_{i=1}^nK_{\sigma}(x-x_i)\tag{3}$$
其中,$x$ 和 $x^{‘}$ 是两个内核样本,$\sigma$ 是内核宽度。KDE给出的近似值的精度完全由上式中选定的 $\sigma$ 值确定。$\sigma$ 的最佳值可以通过交叉验证获得,因此,训练和测试数据点可用于通过等式(2)分别获得 $\hat{p}{test}(X)$ 和 $\hat{p}{train}(X)$ ,并且重要性可以估计为:
$$W(X)=\frac{\hat{p}{test}(X)}{\hat{p}{train}(X)}$$
但是,上面讨论的方法受到维数的限制,而且支持可靠逼近所需的数据量通常随维数呈指数增长,这在数据样本数量有限的情况下非常复杂。因此,KDE无法用于高维数据,一种解决方法是直接找到 $W(X)$ 而无需计算 $p_{test}(X)$ 和 $p_{train}(X)$ 。

Discriminative Learning

概率分类器也可以用来直接估计重要性,从训练集中提取的样本标记为 $\mu = 0$,从测试集中提取的样本标记为 $\mu = 1$。则概率密度可以表示为如下:
$$p_{tr}(X)=p(X|\mu=0) \ and \ p_{te}(X)=p(X|\mu=1)$$
使用贝叶斯定理,重要性权重 $W(X)$ 可写为:
$$W(X)=\frac{p_{tr}}{p_{te}}=\frac{p(\mu=0)p(\mu=1|X) }{p(\mu=1)p(\mu=0|X) }$$
其中 $\frac{p(\mu=0)}{p(\mu=1)}\approx \frac{n_{tr}}{n_{te}}$ 可以容易得到。可以通过使用Logistic回归,随机森林,SVM等分类器区分 ${x_i}{i=1}^{n{tr}}$ 和 ${x_j}{j=1}^{n{te}}$ 来近似估计概率 $p(\mu|X)$。在此还需要注意的是,可以将训练样本与测试样本分离的概率用作检测数据集中是否存在Covariate Shift的度量,在本文中称为判别测试。但是,训练这些模型有时会很耗时,因此,已经引入了有效的概率分类方法,例如LSPC (最小二乘概率分类器)和IWLSPC(结合了重要性加权LSPC和重要性重加权LSPC)。

Kernel Mean Matching

KMM直接能获得 $W(X)$ 而无需计算 $p_{test}(X)$ 和 $p_{train}(X)$ ,KMM的基本思想是找到ܹ $W(X)$ ,从而使再现核Hilbert(RKHS)空间中的训练点和测试点的方法接近。等式(2)中的高斯核是计算通用RKHS核的示例,并且已证明下式给出的优化问题的解给得出真实的重要性值:
$$min_{w_i}[\frac{1}{2}\sum_{i,i^{‘}=1}^{n_{tr}}w_iw_{i^{‘}}K_{\sigma(x_i^{tr},x_{i^{‘}}^{tr})}-sum_{i=1}^{n_{tr}}w_iK_i]\tag{4}$$
其中,$(\frac{1}{n_{tr}})|\sum_{i=1}^{n_{tr}}w_i-n_{tr}\leq \epsilon| \ and\ 0\leq w_1,w_2,w_3,…,w_{n_{tr}}\leq B$,且$K_i=\frac{n_{tr}}{n_{te}}\sum_{j=1}^{n_{te}}K_\sigma(x_i^{tr},x_j^{te})$

KMM的性能完全取决于调整参数$B$,$\epsilon$ 和 $\sigma$ 的值,因此,诸如交叉验证之类的常规模型选择方法无法找到最佳值。KMM的一种变体解决方案是,$\sigma$ 选择一个样本间的中值距离。实验证明KMM优于natural plug-in估算器

Kullback Leblier Importance Estimation Procedure(KLIEP)

通过交叉验证完成的算法(例如KMM)可能会因Covariate Shift下的偏差导致模型选择失败,因此在CV上使用了重要性加权版本IWCV(重要性加权交叉验证)。但是,在IWCV中,模型选择需要通过重要性估计步骤内的无监督学习来完成,这是一个主要缺点。KLEIP找到重要性估计$\hat{w}(x)$,以使以使真实测试输入密度 $p_{te}(x)$ 和 $\hat{p}{te(x)}$ 之间的Kullback-Leibler方差最小,其中$\hat{p}{te(x)}=\hat{w}(x)p_{tr}(x)$,这样无需显式建模 $p_{te}(x)$ 和 $p_{tr}(x)$ 即可完成此操作。

Least Squares Importance Fitting (LSIF), Unconstrained Least Squares Importance Fitting (uLSIF)

KLIEP使用Kullback-Leibler散度找出两个函数之间的密度差异,LSIF使用平方损失代替$\hat{w}(x)$建模为KLIEP。交叉验证用于查找诸如正则化参数和内核宽度 $\sigma$ 之类的调整参数的最佳值。但是,由于数字误差的累积,LSIF有时会给出错误的结果,为了解决这个问题,已经提出了一种近似形式的LSIF,称为uLSIF,它可以通过简单地求解线性方程组来进行解的计算,因此,uLSIF在数值上是稳定的。

Covariate Shift自适应实际应用

  • 半监督speaker识别:与会话有关的变化,录音场景中的变化以及身体情感变化等
  • 人脸识别判断年龄:由于环境中光照条件的变化,训练和测试数据倾向于具有不同的分布。
  • 基于脑电图的脑机接口:脑信号的非平稳性质

实验结果:分类算法的性能分析

实验中使用的数据集是一个数据集来自Kaggle仓库包含三个合成数据集,实验的分类算法如下:

  • 线性判别分析
  • K邻近算法
  • 决策树分类器
  • 朴素贝叶斯分类器

训练和测试数据为不同分布

  • 处理技术:Discriminative Learning

实验用数据集(称为数据集-I)具有1000个训练样本和1000个测试样本,其中训练样本的分布是正态的,而测试样本的分布是二项式的,训练样本包含特征变量 $X$,$Y$。训练集是通过选择1000个遵循均匀分布且方差= 1和均值= 25(在下面的等式中表示为“data”)的随机样本而形成的:
$$X=11\times data-6\tag{5a}$$ $$Y=X^2+10\times X -5\tag{5b}$$
类似地,测试集由遵循二项式分布的1000个随机数组成,被选择的概率为 $p = 0.8$,值的范围为1到20。特征$X$,$Y$使用上式计算。 $\hat{p}{test}(X)$ 和 $\hat{p}{train}(X)$ 的分布如下:
在这里插入图片描述
实验中,LDA,KNN和决策树分类器的准确性得分有所提高,而朴素贝叶斯分类器的准确性得分下降。

训练和测试数据不同的均指和方差

  • 处理技术:KDE

第二个实验数据集(称为数据集-II)具有相同分布但均值和方差不同,训练和测试集分别有1000个样本,且训练和测试样本的分布都均匀。训练集包含两个特征 $X$,$Y$。将生成1000个均值为25和方差为1的随机值。类似地,创建具有正态分布的测试数据,并由$X$,$Y$两列组成。选择了均值为80,方差为1的1000个随机数。$\hat{p}{test}(X)$ 和 $\hat{p}{train}(X)$ 的分布如下:
在这里插入图片描述
下表实验结果显示,所有分类算法的性能都有提高:
在这里插入图片描述

训练和测试数据具有相同的分布,且属性数量增加

  • 处理技术:KLIEP

对于第三个实验,生成了两个具有正态分布的数据集。训练和测试集大约有500个样本和3个属性$X$,$Y$和$Z$,其中$X$,$Y$是输入属性,$Z$是预测标签,$Z$的计算公式如下:
$$Z=sin(Y\times \pi)+X\tag{6}$$
在这里插入图片描述
实验中,决策树分类器的性能提高约30%,其他三个分类器减少近20%。

真实数据

此实验的数据集是从Kaggle仓库中提取的“俄罗斯住房市场”数据集(Dataset-IV)进行的。
在这里插入图片描述

总结

机器学习算法的性能是将其用于现实世界场景中要考虑的重要因素, 它在很大程度上取决于数据集和数据的分布。当将诸如决策树或神经网络之类的机器学习模型在一个场景下训练并利用其来提高另一种场景下的泛化时,则发生的域自适应称为转移学习。但是在监督学习算法中,要确保模型在训练和测试场景中都能正常工作,重要的是要确保训练样本和测试样本的分布相同。