![](https://static.youtibao.com/asksite/comm/h5/images/m_q_title.png)
机器学习中L1正则化和L2正则化的区别是()。
A.使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
B.使用L1可以得到平滑的权值,使用L2可以得到平滑的权值
C.使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值
D.使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值
![](https://static.youtibao.com/asksite/comm/h5/images/solist_ts.png)
A.使用L1可以得到稀疏的权值,使用L2可以得到平滑的权值
B.使用L1可以得到平滑的权值,使用L2可以得到平滑的权值
C.使用L1可以得到平滑的权值,使用L2可以得到稀疏的权值
D.使用L1可以得到稀疏的权值,使用L2可以得到稀疏的权值
A.L1范数正则化有助于降低过拟合风险
B.L2范数正则化有助于降低过拟合风险
C.L1范数正则化比L2范数正则化更有易于获得稀疏解
D.L2范数正则化比L1范数正则化更有易于获得稀疏解
A.数据集合扩充
B.L1和L3正则化
C.提前停止训练
D.使用Dropout方法
A.若正则化参数λ过大,可能会导致出现欠拟合现象
B.若λ的值太大,则梯度下降可能不收敛
C.取一个合理的λ值,可以更好的应用正则化
D.如果令λ的值很大的话,为了使CostFunction尽可能的小,所有θ的值(不包括θ0)都会在一定程度上减小
A.Dropout
B.分批归一化(BatchNormalization)
C.正则化(regularization)
D.都可以
A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络
D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合