关于随机森林算法,下列说法不正确的是()。
A.每一棵决策树之间是没有关联的
B.后一棵树更关注上一棵树分错的样本
C.每一棵树都不需要做剪枝
D.每一棵树都是一棵CART树
A.每一棵决策树之间是没有关联的
B.后一棵树更关注上一棵树分错的样本
C.每一棵树都不需要做剪枝
D.每一棵树都是一棵CART树
第1题
A.随机森林算法的分类精度与所含决策树的数量没有太大关系
B.随机森林算法对异常值和缺失值不敏感储
C.随机森林算法完全不需要考虑过拟合问题
D.决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好
第2题
A.随机森林由若干决策树组成,决策树之间存在关联性
B.随机森林学习过程分为选择样本、选择特征、构建决策树、投票四个部分
C.随机森林算法容易陷入过拟合
D.随机森林构建决策树时,是无放回的选取训练数据
第3题
A.GBDT算法采用了Boosting技术,通过迭代更新样本的权重,串行生成序列的决策树集合
B.随机森林的基学习器采用装袋法,多个基学习器可以并行执行
C.随机森林的准确度一般好于GBDT算法的准确度
D.随机森林和GBDT都是决策树的集成模型
第4题
A.GBDT算法采用了Boosting技术,通过迭代更新样本的权重,串行生成序列的决策树集合
B.随机森林的基学习器采用装袋法,多个基学习器可以并行执行
C.随机森林的准确度一般好于GBDT算法的准确度
D.随机森林和GBDT都是决策树的集成模型
第5题
A.随机森林通常性能比决策树好
B.都不做K折交叉验证时,随机森林的性能评价比决策树的可靠
C.随机森林只能用来分类,不能用来预测一个连续的数值型结果。
D.随机森林模型训练和应用的速度都较决策树慢
第6题
A.聚类算法中最终的类别之间可能有少量样本的交叉
B.K-means算法中可以随机划分样本为K堆,以K堆的平均重心作为初始的K个点
C.自动编码器包含“编码”和“解码”两部分
D.自动编码器可以用于图像抗噪和数据降维
第7题
A.FIFO反映了历史性,没有反映程序访问的局部性
B.随机算法实现简单,但既没有反映历史性,没有反映程序访问的局部性
C.LRU既反映了历史性,又反映了程序访问的局部性,命中率较接近OPT,是实际应用最广泛的一种替换算法
D.OPT是最优替换算法,是实际应用最广泛的一种替换算法
第8题
A.随机森林算法的分类精度不会随着决策树数量的增加而提高。
B.随机森林算法对异常值和缺失值不敏感。
C.随机森林算法不需要考虑过拟合问题。
D.决策树之间相关系数越低、每棵决策树分类精度越高的随机森林模型的分类效果越好。
第10题
A.每颗树都是从属性集随机抽取一定数目的属性作为候选的特征。
B.随机森林训练后只需选择性能最好的树最为预测模型。
C.随机森林是一种集成算法,可以使用CART等基学习器提高分类的性能。
D.类似装袋法的样本抽样方法,保证每棵树的学习样本集的多样性。
第11题
A.每颗树都是从属性集随机抽取一定数目的属性作为候选的特征。
B.随机森林训练后只需选择性能最好的树最为预测模型。
C.随机森林是一种集成算法,可以使用CART等基学习器提高分类的性能。
D.类似装袋法的样本抽样方法,保证每棵树的学习样本集的多样性。
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!