前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Pytorch神经网络初始化kaiming分布

Pytorch神经网络初始化kaiming分布

作者头像
狼啸风云
修改2022-09-03 19:24:04
3.6K0
修改2022-09-03 19:24:04
举报
文章被收录于专栏:计算机视觉理论及其实现

函数的增益值

torch.nn.init.calculate_gain(nonlinearity, param=None) 提供了对非线性函数增益值的计算。

增益值gain是一个比例值,来调控输入数量级和输出数量级之间的关系。

fan_in和fan_out

pytorch计算fan_in和fan_out的源码

代码语言:javascript
复制
def _calculate_fan_in_and_fan_out(tensor):
    dimensions = tensor.ndimension()
    if dimensions < 2:
        raise ValueError("Fan in and fan out can not be computed
        for tensor with fewer than 2 dimensions")

    if dimensions == 2:  # Linear
        fan_in = tensor.size(1)
        fan_out = tensor.size(0)
    else:
        num_input_fmaps = tensor.size(1)
        num_output_fmaps = tensor.size(0)
        receptive_field_size = 1
        if tensor.dim() > 2:
            receptive_field_size = tensor[0][0].numel()
        fan_in = num_input_fmaps * receptive_field_size
        fan_out = num_output_fmaps * receptive_field_size

    return fan_in, fan_out

对于全连接层,fan_in是输入维度,fan_out是输出维度;对于卷积层,设其维度为\left[C_{\text {out }}, C_{\text {in }}, H, W\right] ,其中H \times W 为kernel规模。则fan_in是H \times W \times C_{i n} ,fan_out是H \times W \times C_{\text {out }} ​。

举例: 设输入的数都是出于同一数量级。输入维度较小时,x=[1,1]^{T} ,此时方差较大,正态分布生成的参数初始值都比较大,x=[1,1]^{T} ,得到的值w=[0.5,0.5]^{T} 。当输入维度较大时,x=[1,1,1,1]^{T} ,此时方差较小,正态分布生成的参数初始值都比较小,w=[0.25,0.25,0.25,0.25]^{T} ,得到的值w^{T} x=1 ,数量级是不变的。 xavier分布

xavier分布解析:https://prateekvjoshi.com/2016/03/29/understanding-xavier-initialization-in-deep-neural-networks/ 假设使用的是sigmoid函数。当权重值(值指的是绝对值)过小,输入值每经过网络层,方差都会减少,每一层的加权和很小,在sigmoid函数0附件的区域相当于线性函数,失去了DNN的非线性性。 当权重的值过大,输入值经过每一层后方差会迅速上升,每层的输出值将会很大,此时每层的梯度将会趋近于0. xavier初始化可以使得输入值x x方差经过网络层后的输出值y

y方差不变。 (1)xavier的均匀分布

代码语言:javascript
复制
torch.nn.init.xavier_uniform_(tensor, gain=1)

填充一个tensor使用U(−a,a) a=g a i n \times \sqrt{\frac{6}{\text { fan_in+fan_out }}}也称为Glorot initialization。

代码语言:javascript
复制
>>> w = torch.empty(3, 5)
>>> nn.init.xavier_uniform_(w, gain=nn.init.calculate_gain('relu'))

(2)xavier正态分布

代码语言:javascript
复制
torch.nn.init.xavier_normal_(tensor, gain=1)

填充一个tensor使用N(0,std) s t d=g a i n \times \sqrt{\frac{2}{f a n_{-} i n+f a n_{-} o u t}}也称为Glorot initialization。

kaiming分布

Xavier在tanh中表现的很好,但在Relu激活函数中表现的很差,所何凯明提出了针对于relu的初始化方法。pytorch默认使用kaiming正态分布初始化卷积层参数。 (1)kaiming均匀分布

代码语言:javascript
复制
torch.nn.init.kaiming_uniform_
    (tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')

使用均匀分布U(−bound,bound) \text { bound }=\sqrt{\frac{6}{\left(1+a^{2}\right) \times \text { fan_in }^{2}}}也被称为 He initialization。

    a – the negative slope of the rectifier used after this layer (0 for ReLU by default).激活函数的负斜率,     mode – either ‘fan_in’ (default) or ‘fan_out’. Choosing fan_in     preserves the magnitude of the variance of the weights in the forward     pass. Choosing fan_out preserves the magnitudes in the backwards     pass.默认为fan_in模式,fan_in可以保持前向传播的权重方差的数量级,fan_out可以保持反向传播的权重方差的数量级。

代码语言:javascript
复制
>>> w = torch.empty(3, 5)
>>> nn.init.kaiming_uniform_(w, mode='fan_in', nonlinearity='relu')

(2)kaiming正态分布

代码语言:javascript
复制
torch.nn.init.kaiming_normal_
    (tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')

使用正态分布N(0,std) s t d=\sqrt{\frac{2}{\left(1+a^{2}\right) \times f a n_{-} i n}}也被称为 He initialization。

代码语言:javascript
复制
>>> w = torch.empty(3, 5)
>>> nn.init.kaiming_normal_(w, mode='fan_out', nonlinearity='relu')
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2020/01/20 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 函数的增益值
  • fan_in和fan_out
  • kaiming分布
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档