首页 > IT/互联网> 通信/移动
题目内容 (请给出正确答案)
[多选题]

神经网络梯度消失、爆炸的问题,常见的解决方法有哪些()。

A.Xavier和HE初始化

B.梯度剪切、正则

C.非饱和激活函数

D.Batchnorm

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“神经网络梯度消失、爆炸的问题,常见的解决方法有哪些()。”相关的问题
第1题
神经网络训练过程中的哪些现象表明可能出现了梯度爆炸?()

A.模型梯度快速变大

B.模型权重变为NaN值

C.每个节点和层的误差梯度值持续超多1.0

D.损失函数持续减小

点击查看答案
第2题
Sigmoid激活函数会导致梯度消失现象;而Tanh激活函数不会。()
点击查看答案
第3题
下列哪一项在神经网络中引入了非线性()

A.随机梯度下降

B.激活函数

C.卷积函数

D.以上都不正确

点击查看答案
第4题
BP神经网络的学习规则是?()

A.梯度上升法

B.梯度下降法

C.梯度提升法

D.梯度曲线法

点击查看答案
第5题
()是用来评估神经网络的计算模型对样本的预测值和真实值之间的误差大小

A.反向传播

B.梯度下降

C.优化函数

D.损失函数

点击查看答案
第6题
常见的隐层激活函数有哪些()。

A.Sigmoid函数

B.Tanh函数

C.ReLU函数

D.cos函数

点击查看答案
第7题
常用的神经网络优化方法(避免过拟合,提高模型泛化性)有哪些()。

A.earlystopping

B.数据集扩增

C.正则化(Regularization)

D.Dropout

点击查看答案
第8题
对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,二是都设成0,下面哪个叙述是正确的?()

A.其他选项都不对

B.没啥问题,神经网络会正常开始训练

C.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西

D.神经网络不会开始训练,因为没有梯度改变

点击查看答案
第9题
下列哪项不属于梯度消失问题的解决手段()

A.减少层数

B.减小学习率

增大学习率

用Relu代替sigmoid

点击查看答案
退出 登录/注册
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改