下面哪些关于卷积神经网络的说法是错误的?
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第1题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第3题
A.卷积层使用卷积+ReLU+batch normalization的结构
B.mini-batch的batch值越大越好
C.增加池化层的个数可以提高网络训练参数,但降低了网络性能
D.激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力
第8题
A.sigmoid函数可以将一个实数转化为0到1之间
B.sigmoid函数的取值范围为(0,1)
C.sigmoid函数常用于二分类问题
D.sigmoid函数的定义域为[-1, 1]
第9题
A.sigmoid函数可以将一个实数转化为0到1之间
B.sigmoid函数的取值范围为(0,1)
C.sigmoid函数常用于二分类问题
D.sigmoid函数的定义域为[-1, 1]
第10题
A.在自然语言处理领域的应用比计算机视觉领域更广泛、更成功
B.图像的卷积,很类似视觉皮层对图像进行某种特定功能的处理
C.卷积神经网络模拟了人类视觉信息处理的过程
D.模拟大脑的视觉处理过程就是卷积神经网络的思路
第11题
A.BP神经网络是前馈神经网络
B.BP神经网络的参数权重值是由反向传播学习算法进行调整的
C.BP神经网络模型拓扑结构包括输入层、隐层和输出层
D.BP神经网络利用激活函数来实现从输出到输入的非线性映射
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!