Please enable JavaScript to view this site.

主要有两种方法用于实现降维:特征选择和特征提取。不要太过于关注此处的“特征”一词。在机器学习中(主要使用PCA),“特征”仅表示一个可测量的属性,并且经常与术语“预测因子”互换使用。在Prism中,您还会发现这些被简单地称为变量。

特征选择和特征提取的主要区别在于如何处理数据集中的原始变量。通过特征选择,首先考虑所有变量,然后基于特定的标准,删除一些变量。其余变量可能会经历多轮附加选择,但一旦该过程完成,与它们在原始数据中的呈现方式相比,所选变量将保持不变。

特征选择仅选择原始变量中的“最重要的”,并删除其余变量。一些经典的特征选择技术(特别是逐步法、向前或向后选择)通常视为不明智,Prism目前不提供任何形式的自动特征选择技术。

相比之下,特征提取使用原始变量来构造一组的变量(或特征)。从原始变量导出这些新特征的方法可以是线性的,也可以是非线性的。PCA是最常用于特征提取的线性方法。通过该方法,PCA使用原始变量的线性组合来导出新的特征集(在PCA中,我们称这些新特征为主成分,或PC)。

如需理解线性组合,请考虑以下水果潘趣酒配方:

水果潘趣酒
8杯蔓越莓汁
3杯菠萝汁
3杯橙汁
¼杯柠檬汁
4¼杯姜汁

另一种观点是以成分(变量)线性组合的形式来理解:

水果潘趣酒=8*(蔓越莓汁)+3*(菠萝汁)+3*(橙汁)+0.25*(柠檬汁)+4.25*(姜汁)

每个变量乘以一个常数(系数),乘积加在一起。PCA通过生成原始变量的线性组合PC来执行类似的过程。PCA真正重要的部分是定义这些PC的方式,其允许将原始数据投影到低维空间,同时最小化信息损失。

以下两张图片总结了特征选择(删除原始变量)与特征提取(形成新变量作为原始变量的组合)之间的区别,在图中,使用包含最有用信息的新变量,投影到低维空间。

特征选择

 

特征提取

© 1995-2019 GraphPad Software, LLC. All rights reserved.