首页 > 职业资格考试
题目内容 (请给出正确答案)
[多选题]

下面哪些方法有助于解决深度网络的梯度消失问题()。

A.增加网络深度

B.使用Sigmoid激活函数

C.使用ReLU激活函数

D.采用Batch Normalization

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“下面哪些方法有助于解决深度网络的梯度消失问题()。”相关的问题
第1题
在深度学习中,我们经常会遇到收敛到localminimum,下面不属于解决localminimum问题的方法是()。

A.随机梯度下降

B.设置Momentum

C.设置不同初始值

D.增大batchsize

点击查看答案
第2题
下面哪些情况可能导致神经网络训练失败()。

A.梯度消失

B.梯度爆炸

C.激活单元消失

D.鞍点

点击查看答案
第3题
下列哪些项属于传统循环神经网络的性质()。

A.上一时刻的网络状态信息将会作用于下一时刻的网络状态

B.并行处理序列中所有信息

C.容易梯度爆炸/消失

D.易于搭建

点击查看答案
第4题
梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?()

A.用改良的网络结构比如LSTM和GRUs

B.梯度裁剪

C.Dropout

D.所有方法都不行

点击查看答案
第5题
关于深度学习模型训练,以下哪个说法是错误的()?

A.网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加

B.网络层数越多,学习率可设置偏大,否则容易引起梯度消失

C.VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的正则化的作用

D.Bagging中每个训练集互不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算

点击查看答案
第6题
在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案
第7题
SPN网络用来解决SR-TE/TP模型的标签深度问题的方法是()

A.Path SID

B.Binding SID

C.Node SID

D.Adjacency SID

点击查看答案
第8题
关于循环神经网络以下说法错误的是?()

A.循环神经网络可以根据时间轴展开

B.LSTH也是种循环神经网络

C.LSTM无法解决梯度消失的问题

D.循环神经网络可以简写为RNN

点击查看答案
第9题
假设在训练一个模型的时候,发现靠近输入层的网络层参数基本不更新,请问是什么原因?()

A.梯度消失

B.梯度爆炸

C.过拟合

D.以上都不是

点击查看答案
第10题
长短时记忆神经网络被设计用来解决什么问题?()

A.传统RNN存在的梯度消失/爆炸问题

B.传统RNN计算量大的问题

C.传统RNN速度较慢的问题

D.传统RNN容易过过拟合的问题

点击查看答案
第11题
某公司业务运行在Linux系统(内核为Linux2.6)上,并通过ISCSI连接到存储,工程师测试发现主机访问存储的读写带宽非常低,应用运行出现卡顿和读写报错。以下哪些操作有助于解决此场景中的问题()。

A.改变Linux块设备队列深度

B.改变Linux的CPU运行模式为降频

C.改变Linux的预读量

D.改变Linux块设备IO调度策略

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改