欢迎您访问 广东某某电缆桥架有限公司官方网站

亿兆简介 APP下载 网站地图

欢迎来电咨询

13988888888

新闻资讯

全国服务热线

13988888888

技术过硬,据实报价

相关知识

当前位置: 主页 > 新闻资讯 > 相关知识

Pytorch系列之——损失函数、优化器

2024-05-20 19:10 已有人浏览 佚名

前面我们介绍了如何搭建网络模型,在模型搭建好之后一个非常重要的步骤就是对模型当中的权值进行初始化。正确的权值初始化可以加快模型的收敛,而不恰当的权值初始化可能会引发梯度的消失或爆炸,最终导致模型无法训练。

  • 梯度消失与爆炸
  • Xavier方法与Kaiming方法
  • 常用初始化方法
梯度消失与爆炸

在这里插入图片描述
首先观察模型是怎么对W2进行求导的,我们有:
H 2=H 1 ? W 2 H_{2}=H_{1} * W_{2} H2?=H1??W2?
Δ W 2=? L o s s ? o u t ? ? o u t ? H 2 ? ? H 2 ? w 2=? L o s s ? o u t ? ? o u t ? H 2 ? H 1 \Delta W_{2}=\frac {\partial Loss}{\partial out} * \frac {\partial out}{\partial H_{2}} * \frac {\partial H_{2}}{\partial w_{2}} \\=\frac {\partial Loss}{\partial out} * \frac {\partial out}{\partial H_{2}} * H_{1} ΔW2?=?out?Loss???H2??out???w2??H2??=?out?Loss???H2??out??H1?

H1是上一层神经元的输出值,我们会发现W2的梯度会依赖于上一层的输出,如果H1的输出非常小比如趋向于0的话,那么W2的梯度也就会趋向于0,从而导致了梯度消失;如果H1趋向于无穷大,那么W2的梯度也就会趋向于无穷大,从而导致了梯度爆炸。一旦发生梯度消失或者梯度爆炸,那么就会导致模型无法正常训练。所以若要控制模型的梯度消失或梯度爆炸,就要严格控制网络输出层的输出值的一个尺度范围,也就是不能让每一层网络层的输出值太大或者太小。

接下来我们通过方差的公式推导来观察为什么网络层输出的标准差会越来越大?最终会超出我们可表示的范围?在进行方差公式推导之前,我们先来复习三个基本的公式:

  • E ( X ? Y )=E ( X ) ? E ( Y ) E(X * Y)=E(X) * E(Y)

与Pytorch系列之——损失函数、优化器相关的其他内容

平台注册入口