A.级别划分较多的属性不会影响模型效果
B.在某些噪音较大的分类或回归问题上不会过拟合
C.每次学习使用不同训练集,一定程度避免过拟合
D.能够处理高纬度的数据,并且不做特征选择
A.梯度减少问题
B.XOR问题
C.梯度消失问题
D.过拟合问题
A.两者都是监督学习的方法
B.多项逻辑斯蒂回归模型也被称为softmax函数
C.两者都可被用来完成多类分类任务
D.逻辑斯帝回归是监督学习,多项逻辑斯蒂回归模型是非监督学习
A.向前选择法是从模型中没有自变量开始,然后将所有自变量依次增加到模型中
B.向后剔除法是先对所有自变量拟合线性回归模型,然后依次将所有自变量剔除模型
C.逐步回归法是将向前选择法和向后剔除法结合起来,但不能保证得到的回归模型一定就显著
D.逐步回归法选择变量时,在前面步骤中增加的自变量在后面的步骤中有可能被剔除,而在前面步骤中剔除的自变量在后面的步骤中也可能重新进入到模型中
A.梯度方向是函数值下降最快方向
B.梯度下降算法是一种使得损失函数最小化的方法
C.梯度下降算法用来优化深度学习模型的参数
D.梯度反方向是函数值下降最快方向
设f为定义在区间(a,b)内的任一函数,记fn(x)=证明函数列{fn}在(a,b)内一致收敛于f.