首页 > 职业资格考试
题目内容 (请给出正确答案)
[单选题]

假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,你会得到输出-0.01。X可能是以下哪一个激活函数()。

A.ReLU

B.tanh

C.Sigmoid

D.以上都有可能

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定…”相关的问题
第1题

假定在神经网络中的隐藏层中使用激活函数x。在特定神经元给定任意输入,得到输出「-0.0001」。x可能是以下哪一个激活函数?()

A.ReLU

B.tanh

C.SIGMOID

D.以上都不是

点击查看答案
第2题
在卷积神经网络中,最后一层一般是全连接层,在全连接层中我们使用以下哪个函数作为激活函数?()

A.Softmax函数

B.SoftPlus函数

C.Sigmoid函数

D.Relu函数

点击查看答案
第3题
在经典的卷积神经网络模型中,Softmax函数是跟在什么隐藏层后面的?()

A.卷积层

B.池化层

C.全连接层

D.以上都可以

点击查看答案
第4题
深度神经网络的构成中,把卷积层放在前面,全连接层放在后面。以下说法正确的是()?

A.用卷积层提取特征

B.pooling的下采样能够降低overfitting

C.全连接层只能有一层

D.激活函数relu可以用到卷积层

点击查看答案
第5题
在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题()。

A.增加训练集量

B.减少神经网络隐藏层节点数

C.删除稀疏的特征

D.SVM算法中使用高斯核/RBF核代替线性核

点击查看答案
第6题
关于卷积神经网络CNN,以下说法错误的是:()

A.CNN中的全连接层常用softmax作为激活函数。

B.CNN中的池化层用于降低特征图维数,以避免过拟合。

C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。

D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。

点击查看答案
第7题
()可以使神经网络模型拟合复杂函数的能力增加。

A.隐藏层层数增加

B.Dropout比例增加

C.增大学习率

D.增加训练轮数

点击查看答案
第8题
以下哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.卷积

C.Sigmoid激活函数

D.以上都不正确

点击查看答案
第9题
神经网络层之间需要加入激活函数()
点击查看答案
第10题
在其他条件不变的前提下,以下哪种做法容易引起机器学习中的过拟合问题?()

A.增加训练集量

B.增加神经网络隐藏层节点数

C.增加更多特征

D.在模型中引入正则项

点击查看答案
第11题
下列哪项关于模型能力(modelcapacity指神经网络模型能拟合复杂函数的能力)的描述是正确的()。

A.隐藏层层数增加,模型能力增加

B.Dropout的比例增加,模型能力增加

C.学习率增加,模型能力增加

D.都不正确

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改