为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
第1题
A.梯度消失
B.梯度爆炸
C.eLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了
D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了
第4题
A.双曲正弦函数y=shx
B.双曲余弦函数y=chx
C.双曲正切函数y=thx
D.反双曲正弦函数y=ash
E.反双曲余弦函数y=achx
F.F.反双曲正切函数y= arth
第6题
第10题
A.RNN的隐层神经元的输入包括其历史各个时间点的输出
B.在各个时间点,RNN的输入层与隐层之间、隐层与输出层之间以及相邻时间点之间的隐层权重是共享的,因为不同时刻对应同一个网络
C.RNN比较擅长处理时序数据,例如文本的分析
D.RNN的损失函数度量所有时刻的输入与理想输出(导师值)的差异,需要使用梯度下降法调整参数不断降低损失函数
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!