首页 > 财会类考试
题目内容 (请给出正确答案)
[判断题]

当倒传递神经网络(BP神经网络)无隐藏层,输出层个数只有一个的时候,也可以看做是逻辑回归模型。()

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“当倒传递神经网络(BP神经网络)无隐藏层,输出层个数只有一个…”相关的问题
第1题
以下关于神经网络的说法错误的是?()

A.单层感知器的局限在于不能解决异或问题

B.前馈神经网络可用有向无环图表示

C.随着神经网络隐藏层数的增加,模型的分类能力逐步减弱

D.前馈神经网络同一层的神经元之间不存在联系

点击查看答案
第2题
在经典的卷积神经网络模型中,Softmax函数是跟在什么隐藏层后面的?()

A.卷积层

B.池化层

C.全连接层

D.以上都可以

点击查看答案
第3题
一个含有2个隐层的BP神经网络,神经元个数都为20,输入和输出节点分别有8和5个节点,这个网络的权重和偏置数分别是多少()?

A.660,45

B.3200,45

C.16000,48

D.3000,32

点击查看答案
第4题
前馈神经网络通过误差后向传播(BP算法)进行参数学习,这是一种()机器学习手段。

A.监督学习

B.无监督学习和监督学习的结合

C.无监督学习

D.半监督学习

点击查看答案
第5题
深度学习采用了layer-wise的训练机制,克服了BP神经网络训练中的梯度扩散问题。()
点击查看答案
第6题
下面关于BP神经网络的训练的说法中,正确的说法是哪个()?

A.BP神经网络的训练过程中,先进行后向传播再进行前向传播

B.通过损失函数对后向传播结果进行判定

C.通过前向传播过程对权重参数进行修正

D.训练过程中权值参数的运算量很大,一般采用梯度下降法

点击查看答案
第7题
神经网络的前面的层通常比更深层计算输入的更复杂的特性。()
点击查看答案
第8题
向量化允许您在L层神经网络中计算前向传播,而不需要在层(l=1,2,…,L)上显式的使用for-loop(或任何其他显式迭代循环)。()
点击查看答案
第9题
在卷积神经网络中,最后一层一般是全连接层,在全连接层中我们使用以下哪个函数作为激活函数?()

A.Softmax函数

B.SoftPlus函数

C.Sigmoid函数

D.Relu函数

点击查看答案
第10题
人工神经网络中,()算法不需要知道期望输出。在训练过程中,只要向神经网络提供输入模式,神经网络就能够自动地适应连接权,以便按相似特征把输入模式分组聚集。

A.有师学习

B.无师学习

C.机械学习

D.以上选项都不对

点击查看答案
第11题
如果神经网络中各个神经元一个一个地改变状态,即当某个神经元改变状态时,其它神经元状态保持不变,称为()

A.并行

B.连接

C.异步

D.同步

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改