题目内容
(请给出正确答案)
[单选题]
2、下列关于小批量随机梯度下降算法,说法错误的是______
A.每次迭代使用一个小批量样本训练模型
B.每次迭代所使用的训练样本数不固定,与整个训练集的样本数量有关
C.训练大规模数据时,可以减少训练时间
D.能够实现并行运算
答案
每次迭代所使用的训练样本数不固定,与整个训练集的样本数量有关
如搜索结果不匹配,请 联系老师 获取答案
A.每次迭代使用一个小批量样本训练模型
B.每次迭代所使用的训练样本数不固定,与整个训练集的样本数量有关
C.训练大规模数据时,可以减少训练时间
D.能够实现并行运算
第1题
A.批量梯度下降算法中,每次迭代都使用所有样本来计算偏导数
B.随机梯度下降算法计算速度快,可以使模型快速收敛
C.小批量梯度下降算法每次迭代的训练样本数固定不变
D.Adam是小批量梯度下降算法的改进算法
第2题
A.每次迭代使用一个小批量样本训练模型
B.每次迭代所使用的训练样本数不固定,与整个训练集的样本数量有关
C.训练大规模数据时,可以减少训练时间
D.能够实现并行运算
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!