预处理:主成分分析与白化

Preprocessing:PCA and Whitening

一主成分分析 PCA

1.1 基本术语

  主成分分析 Principal Components Analysis

白化 whitening

亮度 intensity

平均值 mean

方差 variance

协方差矩阵 covariance matrix

基 basis

幅值 magnitude

平稳性 stationarity

特征向量 eigenvector

特征值 eigenvalue

1.2 介绍

  主成分分析(Principal Components Analysis,PCA)是一种能够极大提升无监督特征学习速度的数据降维算法。理解PCA算法,对实现白化(whitening算法有很大的帮助,很多算法都先用白化算法作预处理步骤。由于特征间的相关性,PCA算法可以将输入向量转换为一个维数低很多的近似向量,而且误差非常小。

1.3 PCA实例

1.3.1 数学背景

  在我们的实例中,使用的输入数据集表示为,维度 。假设我们想把数据从2维降到1维。下图是我们的数据集:

  这些数据已经进行了预处理,使得每个特征具有相同的均值(零)和方差。为方便展示,根据值的大小,我们将每个点分别涂上了三种颜色。

  PCA算法将寻找一个低维空间来投影我们的数据。从下图中可以看出,是数据变化的主方向,而 是次方向。

  为更形式化地找出方向,我们首先计算出矩阵,如下所示:

  假设的均值为零,那么就是协方差矩阵(the covariance matrix。(符号 ,读"Sigma",是协方差矩阵的标准符号。虽然看起来与求和符号比较像,但它们其实是两个不同的概念。)

  可以证明,数据变化的主方向就是协方差矩阵的主特征向量,而是次特征向量。

  我们先计算出协方差矩阵的特征向量,按列排放,而组成矩阵

此处,是主特征向量(对应最大的特征值),是次特征向量。以此类推,另记为相应的特征值。

在本例中,向量构成了一个新基,可以用来表示数据。令为训练样本,那么就是样本点在维度上的投影的长度(幅值)。同样的,投影到维度上的幅值。

1.3.2 旋转数据(Rotating the Data)

  至此,我们可以把 基表达为:

  对数据集中的每个样本分别进行旋转: for every ,然后把变换后的数据显示在坐标图上,可得:

  矩阵有正交性,即满足,所以若想将旋转后的向量还原为原始数据,将其左乘矩阵即可:

1.3.3 数据降维(Reducing the Data Dimension)

  数据的主方向就是旋转数据的第一维。因此,若想把这数据降到一维,可令:

  更一般的,假如想把数据降到维表示(令),只需选取的前个成分,分别对应前个数据变化的主方向。

  PCA的另外一种解释是:是一个 维向量,其中前几个成分可能比较大,而后面成分可能会比较小。

  PCA算法做的其实就是丢弃中后面(取值较小)的成分,就是将这些成分的值近似为零。具体的说,设的近似表示,那么将除了前个成分外,其余全赋值为零,就得到:

  在本例中,可得的点图如下(取 ):

  然而,由于上面的后项均为零,没必要把这些零项保留下来。所以,我们仅用前个(非零)成分来定义维向量

1.3.4 还原近似数据(Recovering an Approximation of the Data)

  我们把看作将的最后个元素被置0所得的近似表示,因此如果给定 ,可以通过在其末尾添加个0来得到对的近似,最后,左乘便可近似还原出原数据。具体来说,计算如下:

  将该算法应用于本例中的数据集,可得如下关于重构数据的点图:

  在训练自动编码器或其它无监督特征学习算法时,算法运行时间将依赖于输入数据的维数。若用取代 作为输入数据,那么算法就可使用低维数据进行训练,运行速度将显著加快。对于很多数据集来说,低维表征量 是原数据集的极佳近似,因此在这些场合使用PCA是很合适的,它引入的近似误差的很小,却可显著地提高你算法的运行速度。

1.3.5 选择主成分个数(Number of components to retain)

  决定值时,我们通常会考虑不同值可保留的方差百分比(percentage of variance retained)。具体来说,如果,那么我们得到的是对数据的完美近似,也就是保留了100%的方差,即原始数据的所有变化都被保留下来;相反,如果,那等于是使用零向量来逼近输入数据,也就是只有0%的方差被保留下来。

  一般而言,设表示的特征值(按由大到小顺序排列),使得 为对应于特征向量的特征值。那么如果我们保留前个成分,则保留的方差百分比可计算为:

  很容易证明,。因此,如果,则说明也就基本上接近于0,所以用0来近似它并不会产生多大损失。

  以处理图像数据为例,一个惯常的经验法则是选择以保留99%的方差,换句话说,我们选取满足以下条件的最小值:

  对其它应用,如不介意引入稍大的误差,有时也保留90-98%的方差范围。若向他人介绍PCA算法详情,告诉他们你选择的保留了95%的方差,比告诉他们你保留了前120个(或任意某个数字)主成分更好理解。

1.3.6 PCA应用注意事项

  具体而言,为使PCA算法正常工作,我们通常需要满足以下要求:(1)特征的均值大致为0;(2)不同特征的方差值彼此相似。对于自然图片,即使不进行方差归一化操作,条件(2)也自然满足,故而我们不再进行任何方差归一化操作(对音频数据,如声谱,或文本数据,如词袋向量,我们通常也不进行方差归一化)。实际上,PCA算法对输入数据具有缩放不变性,无论输入数据的值被如何放大(或缩小),返回的特征向量都不改变。更正式的说:如果将每个特征向量 都乘以某个正数(即所有特征量被放大或缩小相同的倍数),PCA的输出特征向量都将不会发生变化。

  既然我们不做方差归一化,唯一还需进行的规整化操作就是均值规整化,其目的是保证所有特征的均值都在0附近。根据应用,在大多数情况下,我们并不关注所输入图像的整体明亮程度。比如在对象识别任务中,图像的整体明亮程度并不会影响图像中存在的是什么物体。更为正式地说,我们对图像块的平均亮度值不感兴趣,所以可以减去这个值来进行均值规整化。

1.4 补充知识

1.4.1协方差矩阵(the covariance matrix)

  协方差(Covariance在概率论和统计学中用于衡量两个变量的总体误差。而方差是协方差的一种特殊情况,即当两个变量是相同的情况。

期望值分别为的两个实数随机变量X与Y之间的协方差定义为:

  协方差矩阵(the covariance matrix是一个矩阵,其每个元素是各个向量元素之间的协方差。这是从标量随机变量到高维度随机向量的自然推广。假设X是以n个标量随机变量组成的列向量,

1.4.2 特征向量(eigenvector)和特征值(eigenvalue)

  定义   设阶方阵,若有数和非零向量,使得

  称数 的特征值,非零向量对应于特征值的特征向量。

特征值和特征向量的求法:

1.   由 ,并且由于是非零向量,故行列式,即

(称之为的特征方程)

由此可解出 个根(在复数范围内),这就是的所有特征值。

2.   根据某个特征值 ,由线性方程组解出非零解,这就是对应于特征值的特征向量。

二 白化 Whitening

2.1 基本术语

  白化 whitening

冗余 redundant

方差 variance

平滑 smoothing

降维 dimensionality reduction

正则化 regularization

反射矩阵 reflection matrix

去相关 decorrelation

2.2 介绍

  我们已经了解了如何使用PCA降低数据维度。在一些算法中还需要一个与之相关的预处理步骤,这个预处理过程称为白化(一些文献中也叫sphering。举例来说,假设训练数据是图像,由于图像中相邻像素之间具有很强的相关性,所以用于训练时输入是冗余的。白化的目的就是降低输入的冗余性;更正式的说,我们希望通过白化过程使得学习算法的输入具有如下性质:

  1. 特征之间相关性较低;
  2. 所有特征具有相同的方差。

2.3 白化和ZCA白化

  由前面的例子,特征的分布如下图所示:

  这个数据的协方差矩阵如下:

  是不相关的, 满足我们对白化结果的第一个要求 (特征间相关性降低)。为了使每个输入特征具有单位方差,我们可以直接使用作为缩放因子来缩放每个特征 。具体地,我们定义白化后的数据 如下:

  绘制出
,我们得到:

  这些数据现在的协方差矩阵为单位矩阵
。我们说,是数据经过PCA白化后的版本: 中不同的特征之间不相关并且具有单位方差。

  白化与降维相结合。如果你想要得到经过白化后的数据,并且比初始输入维数更低,可以仅保留
中前
个成分。当我们把PCA白化和正则化结合起来时(在稍后讨论),中最后的少量成分将总是接近于0,因而舍弃这些成分不会带来很大的问题。

ZCA白化

  最后要说明的是,使数据的协方差矩阵变为单位矩阵
的方式并不唯一。具体地,如果
是任意正交矩阵,即满足
(说它正交不太严格,可以是旋转或反射矩阵), 那么
仍然具有单位协方差。在ZCA白化中,令
。我们定义ZCA白化的结果为:

  绘制
,得到:

  可以证明,对所有可能的
,这种旋转使得
尽可能地接近原始输入数据

  当使用 ZCA白化时(不同于 PCA白化),我们通常保留数据的全部
个维度,不尝试去降低它的维数。

2.4 正则化

  实践中需要实现PCA白化或ZCA白化时,有时一些特征值在数值上接近于0,这样在缩放步骤时我们除以将导致除以一个接近0的值;这可能使数据上溢 (赋为大数值)或造成数值不稳定。因而在实践中,我们使用少量的正则化实现这个缩放过程,即在取平方根和倒数之前给特征值加上一个很小的常数

  当在区间上时, 一般取值为

三 实现主成分分析和白化 Implementing PCA/Whitening

3.1 基本术语

  均值为零 zero-mean

对称半正定矩阵 symmetric positive semi-definite matrix

数值计算上稳定 numerically reliable

降序排列 sorted in decreasing order

奇异值 singular value

奇异向量 singular vector

3.2 Matlab实现

3.2.1 PCA实现

PCA步骤:

  1. 确保数据均值(近似)为零。

    对于自然图像,我们通过减去每个图像块(patch)的均值(近似地)来达到这一目标。Matlab实现如下:

  2. 求解x的协方差矩阵

    Matlab实现如下:

  3. 求解协方差矩阵的特征向量。PCA计算 Σ 的特征向量。你可以使用Matlab的 eig 函数来计算。但是由于 Σ 是对称半正定的矩阵,用 svd 函数在数值计算上更加稳定。

  那矩阵
U
将包含
Sigma
的特征向量(一个特征向量一列,从主向量开始排序),矩阵S 对角线上的元素将包含对应的特征值(同样降序排列)。矩阵
等于
的转置,可以忽略。

  4. 进行数据映射和降维

3.2.2 白化实现

PCA白化:

ZCA白化:

最新文章

  1. Java 枚举7常见种用法
  2. ceph network introduce
  3. rails使用bootstrap3-wysiwyg可视化编辑器并实现自定义图片上传插入功能
  4. Git基本使用教程
  5. Oracle11gR2用EXP导出时报EXP-00011错误的解决
  6. PHP中的日期加减方法示例
  7. IDEA调试javaScript
  8. Kafka架构设计:分布式发布订阅消息系统
  9. Codeforces 264B 数论+DP
  10. 二.ubuntu14.04 3D特效设置
  11. Redis学习笔记之一 : 配置redis
  12. Windows 7下将Tomcat Java程序设置为Windows Service
  13. 使用token和redis怎样判断账户是否失效和异地登录
  14. C++多态(静多态和动多态)
  15. 需求:lr需要在一串数字中随机位置插入一个新数字的实现方式
  16. java-上转型对象&抽象类-学习记录
  17. cdh部署
  18. [转]centos7 移动mysql5.7.19 数据存储位置
  19. BZOJ 3812 : 主旋律
  20. 20155237 2016-2017-2 《Java程序设计》第7周学习总结

热门文章

  1. linux 服务器所支持的最大句柄数调高数倍(与服务器的内存数量相关)
  2. 【题解】Zap(莫比乌斯反演)
  3. python面试题(七)
  4. Android系统移植与调试之------->build.prop文件详细赏析
  5. Servlet 运行原理
  6. Springboot入门2-配置druid
  7. python read文件的r和rb的区别
  8. XML和解析
  9. bug营销手段
  10. Zuul