题目内容 (请给出正确答案)
[单选题]

以下哪个有关卷积神经网络的说法是错误的?

A.使用激活函数Relu的收敛速度比Sigmoid要快一些

B.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力

C.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)

D.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。

答案
输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)
如搜索结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能会需要:
您的账号:
发送账号密码至手机
发送
更多“以下哪个有关卷积神经网络的说法是错误的?”相关的问题

第1题

下面哪些关于卷积神经网络的说法是错误的?

A.ReLU非线性激活函数的收敛速度比Sigmoid快一些

B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数

D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)

点击查看答案

第2题

下面哪些关于卷积神经网络的说法是错误的?

A.ReLU非线性激活函数的收敛速度比Sigmoid快一些

B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数

D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)

点击查看答案

第3题

关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。
点击查看答案

第4题

_________属于神经网络常用的激活函数。

A.Sigmoid

B.tanh

C.ReLU

D.Softmax

点击查看答案

第5题

_________属于神经网络常用的激活函数。

A.tanh

B.Softmax

C.Sigmoid

D.ReLU

点击查看答案

第6题

13、_________属于神经网络常用的激活函数。

A.Sigmoid

B.tanh

C.ReLU

D.Softmax

点击查看答案

第7题

tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快
点击查看答案

第8题

假设神经网络最后一层使用了激活函数X,在给定某个输入后,输出为-0.1,X可能是以下哪一个激活函数

A.relu

B.tanh

C.sigmoid

D.以上都不对

点击查看答案

第9题

7、以下卷积神经网络优化的方法正确的是哪个?

A.卷积层使用卷积+ReLU+batch normalization的结构

B.mini-batch的batch值越大越好

C.增加池化层的个数可以提高网络训练参数,但降低了网络性能

D.激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力

点击查看答案

第10题

以下会造成梯度消失的激活函数有

A.sigmoid函数

B.ReLU函数

C.tanh函数

D.softplus函数

点击查看答案
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
温馨提示
每个试题只能免费做一次,如需多次做题,请购买搜题卡
立即购买
稍后再说
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
赏学吧
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反赏学吧购买须知被冻结。您可在“赏学吧”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
赏学吧
点击打开微信