关于神经网络中经典使用的优化器,以下说法正确的是?()
A.Adam的收敛速度比RMSprop慢
B.相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的
C.对于轻量级神经网络,使用Adam比使用RMSprop更合适
D.相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的
A.Adam的收敛速度比RMSprop慢
B.相比于SGD或RMSprop等优化器,Adam的收敛效果是最好的
C.对于轻量级神经网络,使用Adam比使用RMSprop更合适
D.相比于Adam或RMSprop等优化器,SGD的收敛效果是最好的
A.递归神经网络不允许网络中出现环形结构
B.减少神经网络层数,可能会降低测试集分类错误率
C.循环神经网络适合处理序列数据
D.卷积神经网络可以应用于图像分类
A.Adagrad优化器学习率不是自动更新的
B.SGD,MBGD和动量优化器的共同特点是每次迭代都用相同学习率进行更新。
C.Adam优化器与Adagrad优化器之间没有联系。
D.动量优化器的学习率不需要手动设置。
A.在卷积神经网络中,采用平均池化可减小误差,适用于需要突出纹理等特征的场景中
B.ResNet通过增加恒等映射,增加参数从而减少模型优化的难度,实现性能提升
C.空间金字塔池化(SPP)通过把图像的卷积特征转化成相同维度的特征向量,使模型可以处理任意尺寸的图像
D.批规范化(batchnormalization)是在不引入新参数的情况下保证每一层网络的输入具有相同的分布
A.CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。
B.CNN和RNN都采用了权值共享机制以减少网络中的参数量。
C.在同一个网络中,CNN结构和RNN结构不能同时使用。
D.CNN适用于图像处理,而RNN适用于序列数据处理。
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
A.神经网络可以实现线性分类
B.神经网络可以实现非线性分类
C.神经网络的每层神经元激活函数值阈必须在[-1,1]
D.神经网络的每层神经元激活函数必须相同
A.单层感知器的局限在于不能解决异或问题
B.前馈神经网络可用有向无环图表示
C.随着神经网络隐藏层数的增加,模型的分类能力逐步减弱
D.前馈神经网络同一层的神经元之间不存在联系
A.CNN中的全连接层常用softmax作为激活函数。
B.CNN中的池化层用于降低特征图维数,以避免过拟合。
C.CNN由卷积层、池化层和全连接层组成,常用于处理与图像有关的问题。
D.由于卷积核的大小一般是3*3或更大,因此卷积层得到的特征图像一定比原图像小。
A.常用的大数据资源调度器有Yarn和Mesos,Yarn用的比较多一些
B.基于数据密集型应用的计算框架不断出现,互联网公司中,同时并存了多种计算框架
C.资源调度帮助互联网公司从数据结构上分析应该使用的计算框架
D.资源调度帮助在同一个公共集群中的所有的框架共享集群中的资源