A.偏差减小
B.偏差增大
C.方差减小
D.方差增大
A.参数的数量跟特征数量无关
B.参数可以使用梯度下降法求得
C.一元线性回归模型的参数大小和正负说明自变量对因变量的相对影响大小
D.添加正则化可以使参数变小
A.剔除所有的共线性变量
B.剔除共线性变量中的一个
C.通过计算方差膨胀因子(VarianceInflationFactor,VIF)来检查共线性程度,并采取相应措施
D.删除相关变量可能会有信息损失,我们可以不删除相关变量,而使用一些正则化方法来解决多重共线性问题,例如Ridge或Lasso回归
A.特征X1很可能被排除在模型之外
B.特征X1很可能还包含在模型之中
C.无法确定特征X1是否被舍
D.以上答案都不正确
回归模型中存在多重共线性,你如何解决这个问题()
1.去除这两个共线性变量
2.我们可以先去除一个共线性变量
3.计算VIF(方差膨胀因子),采取相应措施
4.为了避免损失信息,我们可以使用一些正则化方法,比如,岭回归和lasso回归
A.1
B.2
C.2和3
D.2,3和4
A.Logistic回归本质上是一种根据样本对权值进行极大似然估计的方法,用先验概率的乘积代替后验概率
B.Logistic回归的输出就是样本属于正类别的几率
C.SVM的目标是找到使得训练数据尽可能分开且分类间隔最大的超平面,属于结构风险最小化
D.SVM可以通过正则化系数控制模型的复杂度,避免过拟合
A.L1正则化可以用于特征选择
B.L1正则化和L2正则化可以减少过拟合
C.Lp正则化不能减少过拟合
D.L1正则化和L2正则化可以看成是损失函数的惩罚项
机器学习中L1正则化和L2正则化的区别是?
A.使用L1可以得到稀疏的权值
B.使用L1可以得到平滑的权值
C.使用L2可以得到稀疏的权值
A.惩罚了模型的复杂度,避免模型过度学习训练集,提高泛化能力
B.剃刀原理:如果两个理论都能解释一件事情,那么较为简单的理论往往是正确的
C.正则项降低了每一次系数w更新的步伐,使参数更小,模型更简单
D.贝叶斯学派的观点,认为加入了先验分布(11拉普拉斯分布,12高斯分布),减少参数的选择空间