首页 > 学历类考试
题目内容 (请给出正确答案)
[单选题]

下列关于L1正则化与L2正则化描述错误的是()。

A.L1范数正则化有助于降低过拟合风险

B.L2范数正则化有助于降低过拟合风险

C.L1范数正则化比L2范数正则化更有易于获得稀疏解

D.L2范数正则化比L1范数正则化更有易于获得稀疏解

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“下列关于L1正则化与L2正则化描述错误的是()。”相关的问题
第1题
在正则化公式中,λ为正则化参数,关于λ描述正确的是()。

A.若正则化参数λ过大,可能会导致出现欠拟合现象

B.若λ的值太大,则梯度下降可能不收敛

C.取一个合理的λ值,可以更好的应用正则化

D.如果令λ的值很大的话,为了使CostFunction尽可能的小,所有θ的值(不包括θ0)都会在一定程度上减小

点击查看答案
第2题
模型训练中避免过拟合的策略有哪些()。

A.提前停止训练

B.Dropout

C.延迟停止训练

D.L2,L1正则

点击查看答案
第3题
过拟合问题是模型在训练集表现较好,但在测试集表现较差,为了避免过拟合问题,我们可以采取以下哪些方法?()

A.数据集合扩充

B.L1和L3正则化

C.提前停止训练

D.使用Dropout方法

点击查看答案
第4题
关于Dropout说法正确的是:()。

A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN

B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0

C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络

D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合

点击查看答案
第5题
以下关于L1和L2范数的描述,正确的是:()。

A.L1范数:为x向量各个元素绝对值之和。

B.L2范数:为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或Frobenius范数

C.L1范数可以使权值稀疏,方便特征提取

D.L2范数可以防止过拟合,提升模型的泛化能力。

点击查看答案
第6题
特征工程一般需要做哪些工作()。

A.正则化

B.标准化

C.特征处理

D.特征选择

点击查看答案
第7题
正则化在深度学习中经常会使用到,我们在深度学习常用正则化方法解决什么问题?()

A.XOR问题

B.过拟合问题

C.数据不平衡问题

D.梯度消失问题

点击查看答案
第8题
当你增加正则化超参数lambda时会发生权重变得更小(接近0)。()
点击查看答案
第9题
在一个神经网络中,下面哪种方法可以用来处理过拟合()。

A.Dropout

B.分批归一化(BatchNormalization)

C.正则化(regularization)

D.都可以

点击查看答案
第10题
卷积神经网络通过哪些措施来保证图像对位移、缩放、扭曲的鲁棒性()。

A.局部感受野

B.共享权值

C.池采样

D.正则化

点击查看答案
第11题
线性模型中的权重w值可以看做各个属性x的()。

A.正则化系数

B.对最终决策结果的贡献度

C.高维映射

D.取值

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改