在第一次神经网络的研究中,针对感知机无法解决异或XOR问题的缺陷,人工智能专家们的新思路包括()。
A.引入转换性神经网络
B.引入线性变换
C.引入单层神经网络
D.引入多层神经网络
A.引入转换性神经网络
B.引入线性变换
C.引入单层神经网络
D.引入多层神经网络
A.将数据分组部署在不同GPU上进行训练能提高深度神经网络的训练速度。
B.TensorFlow使用GPU训练好的模型,在执行推断任务时,也必须在GPU上运行。
C.将模型中的浮点数精度降低,例如使用float16代替float32,可以压缩训练好的模型的大小。
D.GPU所配置的显存的大小,对于在该GPU上训练的深度神经网络的复杂度、训练数据的批次规模等,都是一个无法忽视的影响因素
A.对数据进行降维,减少数据特征,减少网络参数和运行次数,避免过拟合
B.针对图像中的像素进行处理,并将卷积得到的特征结果中的所有负像素值替换为零;激励函数使用relu函数时会针对图像中的像素进行处理,并将卷积得到的特征结果中的所有负像素值替换为零;特征提取和锐化是在卷积层完成的
C.池化层常被用于提取图像的边缘特征
D.池化层常被用于图像的锐化
A.第一隐藏层中的每个神经元将执行相同的计算。因此,即使在梯度下降的多次迭代之后,层中的每个神经元将执行与其他神经元相同的计算。
B.第一隐层中的每个神经元在第一次迭代中执行相同的计算。但是在梯度下降的一次迭代之后,他们将学会计算不同的东西,因为已经“破坏了对称性”。
C.第一个隐藏层中的每个神经元将执行相同的计算,但不同层中的神经元执行不同的计算,因此完成了课堂上所描述的“对称性破坏”。
D.即使在第一次迭代中,第一个隐藏层的神经元也会执行不同的计算,因此,它们的参数会以自己的方式不断演化
A.train_inputfn
B.testinput_fn
C.eval_input_fn
D.predictinput_fn