LDA(线性区别分析)与PCA(主成分分析)均是降维的方法,下面描述不正确的是()
A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D.PCA和LDA均是基于监督学习的降维方法
A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D.PCA和LDA均是基于监督学习的降维方法
第1题
A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D.PCA和LDA均是基于监督学习的降维方法
第2题
A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D.PCA和LDA均是基于监督学习的降维方法
第3题
A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D.PCA和LDA均是基于监督学习的降维方法
第4题
A.PCA对高维数据降维后的维数是与原始数据特征维度相关(与数据类别标签无关)
B.LDA降维后所得到维度是与数据样本的类别个数K有关(与数据本身维度无关)
C.假设原始数据一共有K个类别,那么LDA所得数据的降维维度小于或等于K−1
D.PCA和LDA均是基于监督学习的降维方法
第5题
A.LDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间
B.LDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法
C.PCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法
D.LDA和PCA都是有监督的降维方法
第6题
A.LDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间
B.LDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法
C.PCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法
D.LDA和PCA都是有监督的降维方法
第7题
A.LDA和PCA的共同点是,都可以将原始的样本映射到维度更低的样本空间
B.LDA是为了让映射后的样本有最好的分类性能。即LDA是一种有监督的降维方法
C.PCA是为了让映射后的样本具有最大的发散性,即PCA是一种无监督的降维方法
D.LDA和PCA都是有监督的降维方法
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!