题目内容 (请给出正确答案)
[单选题]

卷积神经网络的第一层中有10个卷积核,每个卷积核尺寸为55,步长为1,不补零,该层的输入图片的维度是224×224×3,那么该层输出的维度是()。

A.220×220×10

B.220×220×5

C.224×224×10

D.224×224×5

单选题,请选择你认为正确的答案:
提交
你的答案:
错误
正确
答案
A、220×220×10
如搜索结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能会需要:
您的账号:
发送账号密码至手机
发送
更多“卷积神经网络的第一层中有10个卷积核,每个卷积核尺寸为55,…”相关的问题

第1题

假设在卷积神经网络的第一层中有5个卷积核,每个卷积核尺寸为7x7,具有零填充且步幅为1。该层的输入图片的维度是224x224x3,那么该层输出的维度是多少?

A.217x217x3

B.217x217x8

C.218x218x5

D.220x220x7

点击查看答案

第2题

现有一个两层的卷积神经网络,第一层是常规的卷积层,输入输出的通道数为3和64,卷积核大小为3×3;第二层是分组卷积层(group convolution layer),分为4组,输入输出通道数为64和32,卷积核大小为3×3。则该网络的参数个数为()
点击查看答案

第3题

6、假设你有5个大小为7x7、边界值为0的卷积核,同时卷积神经网络第一层的深度为1。此时如果你向这一层传入一个维度为224x224x3的数据,那么神经网络下一层所接收到的数据维度是多少? A、 218*218*5 B、217*217*8 C、217*217*3 D、220*220*5
点击查看答案

第4题

下面哪些关于卷积神经网络的说法是错误的?

A.ReLU非线性激活函数的收敛速度比Sigmoid快一些

B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数

D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)

点击查看答案

第5题

下面哪些关于卷积神经网络的说法是错误的

A.ReLU非线性激活函数的收敛速度比Sigmoid快一些

B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数

D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)

点击查看答案

第6题

下面哪些关于卷积神经网络的说法是错误的

A.ReLU非线性激活函数的收敛速度比Sigmoid快一些

B.在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力

C.激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数

D.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)

点击查看答案

第7题

将一个卷积神经网络的第一层的特征图可视化,能看到清晰的目标特征。()
点击查看答案

第8题

以下哪个有关卷积神经网络的说法是错误的?

A.使用激活函数Relu的收敛速度比Sigmoid要快一些

B.在网络规模相同的情况下,增加网络深度比增加宽度能带来更强的网络特征获取能力

C.输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量是260(含偏置)

D.隐层的神经元输入输出可以看成一个相关权重和偏置的复合非线性多元函数。

点击查看答案

第9题

在卷积神经网络中,可以利用多个不同的卷积核进行卷积操作。()
点击查看答案

第10题

增大卷积核的大小必然会提高卷积神经网络的性能

A.Y.是

B.N.否

点击查看答案
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
温馨提示
每个试题只能免费做一次,如需多次做题,请购买搜题卡
立即购买
稍后再说
警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“赏学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
赏学吧
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反赏学吧购买须知被冻结。您可在“赏学吧”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
赏学吧
点击打开微信