您的位置: 主页 > 动态 > 公司动态 >

用PCA还是LDA?特征抽取经典算法大PK_yabo亚搏网页版

本文摘要:在以前的格物汇文章内容中,大家解读了svm算法的经典算法——主成分分析法(PCA),了解了PCA优化算法本质上是进行了一次纵坐标旋转,尽可能让数据同构在新的纵坐标方位上的方差尽可能大,而且让原数据与新的同构的数据在间距的转变上尽可能小。方差较小的方位代表数据含有的数据量较小,提议享有。 方差较小的方位代表数据含有的数据量较较少,提议抛下。今日大家就看来一下PCA的确立运用于实例和特点同构的另一种方式:线形判别分析(LDA)。

yabo亚搏网页版

在以前的格物汇文章内容中,大家解读了svm算法的经典算法——主成分分析法(PCA),了解了PCA优化算法本质上是进行了一次纵坐标旋转,尽可能让数据同构在新的纵坐标方位上的方差尽可能大,而且让原数据与新的同构的数据在间距的转变上尽可能小。方差较小的方位代表数据含有的数据量较小,提议享有。

方差较小的方位代表数据含有的数据量较较少,提议抛下。今日大家就看来一下PCA的确立运用于实例和特点同构的另一种方式:线形判别分析(LDA)。PCA实例在深度学习中,所用以的数据通常维数非常大,大家务必用以降维的方式来突显信息内容成分较小的数据,PCA便是一个非常好的降维方式。

下边大家看来一个确立的运用于实例,为了更好地比较简单考虑,大家用以一个较小的数据集来展览:不言而喻,大家数据有6维,维数尽管并不是许多 但不一定代表数据不能降维。大家用以sklearn中的PCA优化算法标值数据集得到 以下的結果:我们可以看到历经PCA降维后依然溶解了新的6个层面,可是数据同构在每一个层面上的方差尺寸不一样。

大家不容易对每一个层面上的方差进行归一化,每一个层面上的方差量大家称之为可表明的方差量(ExplainedVariance)。


本文关键词:用,PCA,还是,LDA,特征,抽取,经典,算法,大,yabo亚搏网页版,yabo,在

本文来源:yabo亚搏网页版-www.tr1dent.com