首页 > 计算机类考试
题目内容 (请给出正确答案)
[多选题]

假设在一个深度学习网络中,批量梯度下降花费了大量时间时来找到一组参数值,使成本函数小。以下哪些方法可以帮助找到值较小的参数值?()

A.令所有权重值初始化为0

B.尝试调整学习率

C.尝试mini-batch梯度下降

D.尝试对权重进行更好的随机初始化

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“假设在一个深度学习网络中,批量梯度下降花费了大量时间时来找到…”相关的问题
第1题
假设在训练一个模型的时候,发现靠近输入层的网络层参数基本不更新,请问是什么原因?()

A.梯度消失

B.梯度爆炸

C.过拟合

D.以上都不是

点击查看答案
第2题
在深度学习中,我们经常会遇到收敛到localminimum,下面不属于解决localminimum问题的方法是()。

A.随机梯度下降

B.设置Momentum

C.设置不同初始值

D.增大batchsize

点击查看答案
第3题
下列关于深度学习中优化问题说法错误的是()。

A.当优化问题的数值解接近局部最优值时,随着目标函数解的梯度接近或变为零,通过最终迭代获得的数值解可能仅使目标函数局部最优,而不是全局最优

B.在深度学习优化问题中,经常遇到的是梯度爆炸或梯度消失

C.优化问题中设置的学习率决定目标函数能否收敛到局部最小值,以及何时收敛到最小值

D.一般来说,小批量随机梯度下降比随机梯度下降和梯度下降的速度慢,收敛风险较大

点击查看答案
第4题
下面对梯度下降方法描述不正确的是()。

A.梯度方向是函数值下降最快方向

B.梯度下降算法是一种使得损失函数最小化的方法

C.梯度下降算法用来优化深度学习模型的参数

D.梯度反方向是函数值下降最快方向

点击查看答案
第5题
您已经为所有隐藏单元使用tanh激活建立了一个网络。使用np.random.randn(..,..)*1000将权重初始化为相对较大的值。会发生什么()

A.这没关系。只要随机初始化权重,梯度下降不受权重大小的影响

B.这将导致tanh的输入也非常大,因此导致梯度也变大。因此,您必须将α设置得非常小以防止发散;这会减慢学习速度

C.这会导致tanh的输入也非常大,导致单位被“高度激活”,从而加快了学习速度,而权重必须从小数值开始

D.这将导致tanh的输入也很大,因此导致梯度接近于零,优化算法将因此变得缓慢

点击查看答案
第6题
对于卷积神经网络而言,减少梯度消失不适合采用以下哪些方法()?

A.增大学习率

B.减少网络深度(隐层个数)

C.skipconnection

D.减少通道数

点击查看答案
第7题
在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案
第8题
下面关于经典的卷积神经网络说法错误的是()。

A.AlexNet的网络结构和LeNet非常类似,但更深更大,并且使用了层叠的卷积层来获取特征

B.GoogLeNet的主要贡献是实现了一个bottleneck模块,能够显著地减少网络中参数的数量

C.ResNet使用了特殊的跳跃链接,大量使用了批量归一化,并在最后使用了全连接层

D.VGGNet的主要贡献是展示出网络的深度是算法优良性能的关键部分

点击查看答案
第9题
机器学习中,为何要经常对数据做归一化()①归一化后加快的梯度下降对最优解的速度②归一化有可能提高精度③归一化有一定提高精度

A.①②③

B.②③

C.①②

D.①③

点击查看答案
第10题
以下哪个是超参数示例?()

A.Ridge和Lasso回归中的正则化惩罚(Lambda)

B.梯度下降的步长和学习率

C.决策树中的叶节点数

D.以上均是

点击查看答案
第11题
下面回归模型中的哪个步骤/假设最能影响过拟合和欠拟合之间的平衡因素()。

A.多项式的阶数

B.是否通过矩阵求逆或梯度下降学习权重

C.使用常数项

D.使用正则化

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改