在下列关于生成对抗网络的训练的说法中,描述正确的是()。
A.判别器模型梯度更新依赖于生成器模型
B.生成器模型梯度更新依赖于判别器模型
C.根据输入数据的特征,预测输入数据的标签
D.生成器和判别器不可以是神经网络模型
A.判别器模型梯度更新依赖于生成器模型
B.生成器模型梯度更新依赖于判别器模型
C.根据输入数据的特征,预测输入数据的标签
D.生成器和判别器不可以是神经网络模型
A.生成器可以由Autoencoder实现
B.生成器用来产生带有随机噪声的一定分布数据和真实样本数据的映射关系,判别器用来区别实际数据和生成器产生的数据
C.生成器和判别器需要交替训练,不断增加两者的性能,直至达到某种博弈的平衡
D.生成器和判别器的代价函数在训练过程中是同时优化的
A.主要工作在网络层和传输层
B.可以支持路由转发功能
C.支持自动学习后生成拦截动作
D.一般有处理速度快,价格便宜的优点
A.抑制甲状腺素的合成
B.抑制过氧化酶,使被摄入到甲状腺细胞内的碘化物不能氧化成活性碘,酪氨酸不能碘化
C.一碘酪氨酸和二碘酪氨酸的缩合过程受阻,不能生成甲状腺激素
D.在甲状腺外抑制T4转化为T3
E.直接对抗甲状腺激素
A.增加网络层数,可能会增加测试集分类错误率
B.增加网络层数,一定会增加训练集分类错误率
C.减少网络层数,可能会减少测试集分类错误率
D.减少网络层数,一定会减少训练集分类错误率
A.在随机森林的单个树中,树和树之间是有依赖的,而GBDT中的单个树之间是没有依赖的
B.这两个模型都使用随机特征子集,来生成许多单个的树
C.我们可以并行地生成GBDT单个树,因为它们之间是没有依赖的
D.GBDT训练模型的表现总是比随机森林好
A.损失函数值越大,模型越不精准
B.当使用均方差损失函数时,网络层数越深,训练收敛速度变慢
C.损失函数值越大,模型越精准
D.当使用交叉熵损失函数时,误差越大,训练收敛速度变慢
A.局部感知使网络可以提取图像的局部特征,而权值共享大大降低了网络的训练难度
B.通道数量越多,获得的特征图(Featuremap)就越多
C.卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变
D.SAME填充和VALID填充的主要区别是前者向图像边缘添加0值,而后者可能会忽略来自图像边缘的值
A.标准BP算法每次仅针对一个训练样例更新连接权和阈值
B.BP神经网络经常遭遇过拟合
C.早停策略可用来缓解BP网络的过拟合问题
D.晚停策略可用来缓解BP网络的欠拟合问题