Tag Archives: Dimensionality Reduction

【MachineLearning】Dimensionality Reduction——Advice for Applying PCA

在之前的课程中,我曾说过PCA可以用来加速学习算法的运行。在本节课程中,讲了①在监督学习中使用PCA②PCA的应用(数据压缩降维,数据可视化),以及③PCA的误用(预防过拟合应该使用正则化,regularization),最重要的一点是(针对所有问题来说),我们应当在只有在应用平时的方法得到的解不好或不理想的时候,才去考虑使用更好的办法(如PCA),也就是④有无PCA方法的结果前后对比Continue reading

【MachineLearning】Dimensionality Reduction——Reconstruction from Compressed Representation

在之前的一些课程中,我们谈到有关PCA算法的内容,它作为一种压缩算法,你或许会问高达1000维的数据,如何压缩它成为一个100维特征的,或者3维数据如何压缩成2维特征的数据,如果压缩算法能将原始数据压缩(降维),那么应该也有一种算法可以将被压缩(被降维)的数据近似地重新回到之前高维度数据,比如给100维度的数据,你怎样回到压缩前1000维度的原始数据呢?,本节将会将这个事儿(降维数据的回光返照什么的哈)。 Continue reading

【MachineLearning】Dimensionality Reduction——Choosing the Number of Principal Components

在PCA算法中,我们采用了N维特征,并使之降维到K维特征。数字K是PCA算法的一个参数,K这个数也被叫做“主成分个数”(the number of principle components)或者是要降到的维数。在本课学习中,我将会给你一些指导,人们通常是怎样选择PCA的参数K值的。 Continue reading

【MachineLearning】Dimensionality Reduction——Principal Component Analysis Problem Formulation

对于降维问题来说,目前最流行的常用算法是主成分分析法(Principal Component Analysis,PCA)。在本节课程中,我们主要讨论PCA的公式描述,也就是说我们PCA用公式如何表示,以及PCA能做什么,以及PCA和线性回归的区别Continue reading

【MachineLearning】Dimensionality Reduction——Motivation II: Visualization

在上一节课程中,我们讲到了降维(为压缩数据),在本节课程中,我将会给你讲到降维的第二个应用,这是对于可视化数据的,对于大多数机器学习应用,它真的对我们开发高效的学习算法在理解数据上起着重要作用,如果这里还有某种更好的可视化数据的方法,降维提供给我另一个有用的工具去做(感觉这节课没讲啥╮(╯_╰)╭)压缩成二维和三维数据利于可视化Continue reading

【MachineLearning】Dimensionality Reduction——Motivation I: Data Compression

在这节课程中,我们将会讲到第二种无监督学习问题——“降维”(Dimensionality Reduction),有很多不同的原因让我们不得不去降维(Dimensionality Reduction),其中之一是数据压缩(Data Compression),在我们这节课后面会看到。数据压缩(的三个优点):

  1. (不仅)让(我们)压缩数据;
  2. (同时)使用了更少的计算机空间;
  3. (但它同时也可以)加快(我们)学习算法的速度。

Continue reading