题目:深度学习中如果神经网络的层数较多比较容易出现梯度消失问题。严格意义上来讲是在以下哪个环节出现样度消失问题
A. 反向传播更新参数
B. 正向传播更新参数
C. 反向传播计算结果
D. 正向传播计算结果
答案:评论后可见此内容
推荐使用我们的公众号搜索题目,题目更全,检索更方便。支持语音、图片、文字等多种搜索方式。