吴恩达深度学习笔记(37)-神经网络的权重初始化再解析

神经网络的权重初始化(Weight Initialization for Deep NetworksVanishing / Exploding gradients)

上节课,我们学习了深度神经网络如何产生梯度消失和梯度爆炸问题,最终针对该问题,我们想出了一个不完整的解决方案,虽然不能彻底解决问题,却很有用,有助于我们为神经网络更谨慎地选择随机初始化参数,为了更好地理解它,我们先举一个神经单元初始化地例子,然后再演变到整个深度网络。

吴恩达深度学习笔记(37)-神经网络的权重初始化再解析

我们来看看只有一个神经元的情况,然后才是深度网络。

单个神经元可能有4个输入特征,从x_1到x_4,经过a=g(z)处理,最终得到^y,稍后讲深度网络时,这些输入表示为a^([l]),暂时我们用x表示。

z=w_1 x_1+w_2 x_2+⋯+w_n x_n,b=0,暂时忽略b,

为了预防z值过大或过小,你可以看到n越大,你希望w_i越小,因为z是w_i x_i的和,如果你把很多此类项相加,希望每项值更小,最合理的方法就是设置w_i=1/n,n表示神经元的输入特征数量,实际上,你要做的就是设置某层权重矩阵

吴恩达深度学习笔记(37)-神经网络的权重初始化再解析

,n^([l-1])就是我喂给第l层神经单元的数量(即第l-1层神经元数量)。

吴恩达深度学习笔记(37)-神经网络的权重初始化再解析

结果,如果你是用的是Relu激活函数,而不是1/n,方差设置为2/n,效果会更好。

你常常发现,初始化时,尤其是使用Relu激活函数时,g^([l]) (z)=Relu(z),它取决于你对随机变量的熟悉程度,这是高斯随机变量,然后乘以它的平方根,也就是引用这个方差2/n。

这里,我用的是n^([l-1]),因为本例中,逻辑回归的特征是不变的。但一般情况下l层上的每个神经元都有n^([l-1])个输入。

如果激活函数的输入特征被零均值和标准方差化,方差是1,z也会调整到相似范围,这就没解决问题(梯度消失和爆炸问题)。但它确实降低了梯度消失和爆炸问题,因为它给权重矩阵w设置了合理值,你也知道,它不能比1大很多,也不能比1小很多,所以梯度没有爆炸或消失过快。

吴恩达深度学习笔记(37)-神经网络的权重初始化再解析

我提到了其它变体函数,刚刚提到的函数是Relu激活函数,一篇由Herd等人撰写的论文曾介绍过。

对于几个其它变体函数,如tanh激活函数,有篇论文提到,常量1比常量2的效率更高,对于tanh函数来说,它是√(1/n^([l-1]) ),这里平方根的作用与这个公式作用相同

(np.sqrt(1/n^([l-1]) )),它适用于tanh激活函数,被称为Xavier初始化。

Yoshua Bengio和他的同事还提出另一种方法,你可能在一些论文中看到过,它们使用的是公式√(2/(n^([l-1])+n^[l] ))。

其它理论已对此证明,

但如果你想用Relu激活函数,也就是最常用的激活函数,

我会用这个公式np.sqrt(2/n^([l-1]) ),

如果使用tanh函数,可以用公式√(1/n^([l-1]) ),有些作者也会使用这个函数。

实际上,我认为所有这些公式只是给你一个起点,它们给出初始化权重矩阵的方差的默认值,如果你想添加方差,方差参数则是另一个你需要调整的超级参数,可以给公式np.sqrt(2/n^([l-1]) )添加一个乘数参数,调优作为超级参数激增一份子的乘子参数。

有时调优该超级参数效果一般,这并不是我想调优的首要超级参数,但我发现调优过程中产生的问题,虽然调优该参数能起到一定作用,但考虑到相比调优,其它超级参数的重要性,我通常把它的优先级放得比较低。

希望你现在对梯度消失或爆炸问题以及如何为权重初始化合理值已经有了一个直观认识,希望你设置的权重矩阵既不会增长过快,也不会太快下降到0,从而训练出一个权重或梯度不会增长或消失过快的深度网络。我们在训练深度网络时,这也是一个加快训练速度的技巧。


分享到:


相關文章: