我们在训练神经网络过程中,使用梯度下降法不断更新哪种数值,进而使得损失函数最小化?()
A.超参数
B.特征值
C.样本数目
D.参数
A.超参数
B.特征值
C.样本数目
D.参数
第1题
A.为了尽可能减少小批量样本对训练的影响,在每轮训练前最好打乱样本顺序
B.动量梯度下降法在更新参数时,能在一定程度上保留之前的更新方向
C.使用越先进的梯度下降法优化算法,神经网络训练结果一定越好
D.小规模梯度下降法每次迭代所用的样本数固定
第2题
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
第3题
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
第4题
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
第5题
A.交叉熵也可以作为分类预测问题的损失函数
B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D.神经元的激活函数选择不影响神经网络的训练过程和最终性能
第6题
A.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会减少陷入局部极小值的可能
B.与批量梯度下降法相比,使用小批量梯度下降法可以提高训练速度,但达到全局最优解可能需要更多的迭代次数
C.交叉熵也可以作为回归预测问题的损失函数
D.神经元的激活函数选择影响神经网络的训练过程和最终性能
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!