![](https://static.youtibao.com/asksite/comm/h5/images/m_q_title.png)
[单选题]
假定你在神经网络中的隐藏层中使用激活函数X。在特定神经元给定任意输入,你会得到输出-0.01。X可能是以下哪一个激活函数()。
A.ReLU
B.tanh
C.Sigmoid
D.以上都有可能
查看答案
![](https://static.youtibao.com/asksite/comm/h5/images/solist_ts.png)
A.ReLU
B.tanh
C.Sigmoid
D.以上都有可能
假定在神经网络中的隐藏层中使用激活函数x。在特定神经元给定任意输入,得到输出「-0.0001」。x可能是以下哪一个激活函数?()
A.ReLU
B.tanh
C.SIGMOID
D.以上都不是
A.Softmax函数
B.SoftPlus函数
C.Sigmoid函数
D.Relu函数
A.用卷积层提取特征
B.pooling的下采样能够降低overfitting
C.全连接层只能有一层
D.激活函数relu可以用到卷积层
A.增加训练集量
B.减少神经网络隐藏层节点数
C.删除稀疏的特征
D.SVM算法中使用高斯核/RBF核代替线性核
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.隐藏层层数增加,模型能力增加
B.Dropout的比例增加,模型能力增加
C.学习率增加,模型能力增加
D.都不正确