神经网络在反向传播的过程中,每一层的梯度的计算都要乘以上层传过来的梯度,要是每一层的梯度值都比较小,那么在反向传播的过程中越传播梯度越小,就会导致梯度消失。 A、正确B、错误 发布时间:2023-07-25 19:46:26