下面哪些关于卷积神经网络的说法是错误的
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第1题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第2题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第3题
A.ReLU非线性激活函数的收敛速度比Sigmoid快一些
B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第4题
A.神经网络可以实现非线性分类
B.神经网络可以实现线性分类
C.神经网络的每层神经元激活函数必须相同
D.神经网络的每层神经元激活函数值阈必须在[-1,1]
第5题
A.使用激活函数Relu的收敛速度比Sigmoid要快一些
B.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力
C.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)
D.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。
第6题
A.BP神经网络是前馈神经网络
B.BP神经网络的参数权重值是由反向传播学习算法进行调整的
C.BP神经网络模型拓扑结构包括输入层、隐层和输出层
D.BP神经网络利用激活函数来实现从输出到输入的非线性映射
第7题
A.BP神经网络是前馈神经网络
B.BP神经网络的参数权重值是由反向传播学习算法进行调整的
C.BP神经网络模型拓扑结构包括输入层、隐层和输出层
D.BP神经网络利用激活函数来实现从输出到输入的非线性映射
第8题
A.BP神经网络是前馈神经网络
B.BP神经网络的参数权重值是由反向传播学习算法进行调整的
C.BP神经网络模型拓扑结构包括输入层、隐层和输出层
D.BP神经网络利用激活函数来实现从输出到输入的非线性映射
第9题
A.卷积层使用卷积+ReLU+batch normalization的结构
B.mini-batch的batch值越大越好
C.增加池化层的个数可以提高网络训练参数,但降低了网络性能
D.激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力
第10题
A.卷积层使用卷积+ReLU+batch normalization的结构
B.mini-batch的batch值越大越好
C.增加池化层的个数可以提高网络训练参数,但降低了网络性能
D.激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力
为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!