题目内容
(请给出正确答案)
[多选题]
下面哪些方法有助于解决深度网络的梯度消失问题()。
A.增加网络深度
B.使用Sigmoid激活函数
C.使用ReLU激活函数
D.采用Batch Normalization
查看答案
如果结果不匹配,请 联系老师 获取答案
A.增加网络深度
B.使用Sigmoid激活函数
C.使用ReLU激活函数
D.采用Batch Normalization
A.随机梯度下降
B.设置Momentum
C.设置不同初始值
D.增大batchsize
A.用改良的网络结构比如LSTM和GRUs
B.梯度裁剪
C.Dropout
D.所有方法都不行
A.网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加
B.网络层数越多,学习率可设置偏大,否则容易引起梯度消失
C.VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的正则化的作用
D.Bagging中每个训练集互不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算
A.改变Linux块设备队列深度
B.改变Linux的CPU运行模式为降频
C.改变Linux的预读量
D.改变Linux块设备IO调度策略