题目内容 (请给出正确答案)
[单选题]

下面哪些关于卷积神经网络的说法是错误的?

A.ReLU非线性激活函数的收敛速度比Sigmoid快一些

B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数

D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)

答案
在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力;输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
如搜索结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能会需要:
您的账号:
发送账号密码至手机
发送
更多“下面哪些关于卷积神经网络的说法是错误的?”相关的问题

第1题

下面哪些关于卷积神经网络的说法是错误的?

A.ReLU非线性激活函数的收敛速度比Sigmoid快一些

B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数

D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)

点击查看答案

第2题

tanh激活函数的梯度消失问题比sigmoid轻,收敛速度也比sigmoid快
点击查看答案

第3题

7、以下卷积神经网络优化的方法正确的是哪个?

A.卷积层使用卷积+ReLU+batch normalization的结构

B.mini-batch的batch值越大越好

C.增加池化层的个数可以提高网络训练参数,但降低了网络性能

D.激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力

点击查看答案

第4题

关于ReLU和Sigmoid激活函数,在深度神经网络的中间层,建议使用ReLU。
点击查看答案

第5题

_________属于神经网络常用的激活函数。

A.tanh

B.Softmax

C.Sigmoid

D.ReLU

点击查看答案

第6题

_________属于神经网络常用的激活函数。

A.Sigmoid

B.tanh

C.ReLU

D.Softmax

点击查看答案

第7题

13、_________属于神经网络常用的激活函数。

A.Sigmoid

B.tanh

C.ReLU

D.Softmax

点击查看答案

第8题

下面关于sigmoid函数的说法中,错误的是______。

A.sigmoid函数可以将一个实数转化为0到1之间

B.sigmoid函数的取值范围为(0,1)

C.sigmoid函数常用于二分类问题

D.sigmoid函数的定义域为[-1, 1]

点击查看答案

第9题

1、下面关于sigmoid函数的说法中,错误的是______。

A.sigmoid函数可以将一个实数转化为0到1之间

B.sigmoid函数的取值范围为(0,1)

C.sigmoid函数常用于二分类问题

D.sigmoid函数的定义域为[-1, 1]

点击查看答案

第10题

关于卷积神经网络说法,错误的是()。

A.在自然语言处理领域的应用比计算机视觉领域更广泛、更成功

B.图像的卷积,很类似视觉皮层对图像进行某种特定功能的处理

C.卷积神经网络模拟了人类视觉信息处理的过程

D.模拟大脑的视觉处理过程就是卷积神经网络的思路

点击查看答案

第11题

下面关于BP神经网络的说法中,错误的说法是哪个?

A.BP神经网络是前馈神经网络

B.BP神经网络的参数权重值是由反向传播学习算法进行调整的

C.BP神经网络模型拓扑结构包括输入层、隐层和输出层

D.BP神经网络利用激活函数来实现从输出到输入的非线性映射

点击查看答案
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
温馨提示
每个试题只能免费做一次,如需多次做题,请购买搜题卡
立即购买
稍后再说
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
赏学吧
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反赏学吧购买须知被冻结。您可在“赏学吧”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
赏学吧
点击打开微信