工作时间AM:09:00--PM:20:00

WORKINGTIME

/public/upload/system/2018/07/26/f743a52e720d8579f61650d7ca7a63a0.jpg免费咨询

/public/upload/system/2018/07/26/f743a52e720d8579f61650d7ca7a63a0.jpg
邮箱:
广东省广州市天河区88号
电话:
/public/upload/system/2018/07/26/f743a52e720d8579f61650d7ca7a63a0.jpg
传真:
/public/upload/system/2018/07/26/fe272790a21a4d3e1e670f37534a3a7d.png
手机:
13800000000
地址:
1234567890
盛煌APP下载
当前位置: 首页 > 盛煌APP下载
深度学习常见策略总结(优化器选择,防止过拟合策略)  上传时间:2024-08-26 05:52:15

1. 优化器的选择

?关于深度学习各种优化器的介绍和对比在网上有很多图文并茂的讲解,比如我上一篇博文转载的文章:深度学习——优化器算法Optimizer详解(BGD、SGD、MBGD、Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam)。有需要的可以移步去学习。

2. 防止过拟合策略

我们在进行深度学习模型训练时候,很容易出现过拟合现象:训练集准确率高,测试集准确率低。过拟合产生的原因可以分为两个:(1)训练数据不够,无法对整个数据分布进行评估;(2)参数学习迭代次数过多,拟合了训练数据中的噪声和训练样例中没有代表性的特征。

如何解决过拟合的问题呢?

(1)数据集扩增

针对过拟合原因的第一种情况,当然是选择数据集扩增的方法来防止过拟合了。常见的数据集扩增方法有:

  • 从数据源获取更多数据
  • 数据增强(Data Augmentation):通过一定规则扩充数据。如在物体分类问题里,物体在图像中的位置、姿态、尺度,整体图片明暗度等都不会影响分类结果。我们就可以通过图像平移、翻转、缩放、切割等手段将数据库成倍扩充;
  • 根据当前数据集估计数据分布参数,使用该分布产生更多特征。(这种方法不推荐,因为我们一般是不清楚分布特征的,或者不能全面总结出特征,否则模型的学习就无意义了,如果我们根据自己片面的理解扩增的数据集用于训练,会影响模型的实际性能)

(2)Early stopping

深度学习模型如CNN对网络参数学习更新过程,会使用一些优化器(第一部分所讲)不断迭代,如梯度下降(Gradient descent)学习算法。Early stopping就是在多个连续Epoch迭代中,模型的准确率不再变化,或者微弱变化时候就停止训练,防止后面学习到与数据分布特征无关的噪声。

(3)正则化(Regularization)

正则化是机器学习中常用的防止过拟合方法,通过将权值大小加入到Cost里面,训练时候限制权值变大。模型越复杂,越容易过拟合。原先以最小化损失(经验风险最小化)为目标:

现在加入正则化后以最小化损失和模型复杂度(结构风险最小化)为目标:

通过降低复杂模型的复杂度来防止过拟合的规则称为正则化。

也就是说当我们有很多特征变量时,其中每一个变量都能对预测产生一点影响。所以要保留全部的特征变量。正如我们在房价预测的例子中看到的那样,我们可以有很多特征变量,其中每一个变量都是有用的,因此我们不希望把它们删掉,这就导致了正则化概念的发生。[4] 更通俗直观的理解如下:

image

如上图,如果用一个二次函数来拟合这些数据,那么能达到一个很好的拟合效果。然而,如果我们用一个更高次的多项式去拟合,最终我们可能会得到一个曲线,它能很好地拟合训练集,但却并不是一个好的结果,因为它过度拟合了数据,因此,一般性并不是很好。

因此,我们考虑在原先的损失函数中加上惩罚项,从而使参数 θ3?和 θ4?足够的小。就可以上图中X^3和X^4对预测结果的影响。

原来的代价函数(均方误差):

我们人为加入参数的惩罚项后:

这里的1000是我随意设置的值(实际是正则2的参数?λ)。在原有代价函数的基础上加上 1000 乘以 θ3 和θ4这一项后,只有将?θ3?和 θ4?的值接近于 0,才能使代价函数最小化,就像我们忽略了这两个值一样。如果我们做到这一点( θ3?和 θ4?接近 0 ),那么我们将得到一个近似的二次函数。

image

因此,我们最终恰当地拟合了数据,我们所使用的正是二次函数加上一些非常小,贡献很小项(因为这些项的 θ3、 θ4?非常接近于0)。显然,这是一个更好的假设。

上面仅仅是一个便于理解的例子,我们指定了只惩罚参数θ3?和 θ4 ,实际中我们不知道哪些参数重要,所以会惩罚所有的参数,即:

下面就是正则化项,? λ 在这里我们称为正则化参数。

image

正则化有L1和L2两种,它们的具体可以在网上找到介绍,如[5]。总体来说,L1 正则化可以理解为每次从权重中减去一个常数。

L2 正则化可以理解为每次移除权重的 x%。本质都是为了降低模型的复杂度,防止过拟合。

?

(4)Dropout函数

我们知道如果要训练一个大型的网络,训练数据很少的话,那么很容易引起过拟合(也就是在测试集上的精度很低),可能我们会想到用L2正则化、或者减小网络规模。然而深度学习领域大神Hinton,在2012年文献中[6]提出在每次训练的时候,让一半的特征检测器停过工作,这样可以提高网络的泛化能力,Hinton又把它称之为dropout。

Hinton认为在神经网络产生过拟合主要是因为神经元之间的协同作用产生的。因此在神经网络进行训练的时候,让部分神经元失活,这样就阻断了部分神经元之间的协同作用,从而强制要求一个神经元和随机挑选出的神经元共同进行工作,减轻了部分神经元之间的联合适应性。

Dropout的实现说的简单一点就是我们让在前向传导的时候,让某个神经元的激活值以一定的概率p,让其停止工作,示意图如下。加入Dropout后,反向传播训练肯定会受影响,所以具体实现就需要仔细看看论文和源码里是怎么做的。

Keras里面的Dropout源码如下。函数中,x是本层网络的激活值。Level就是dropout就是每个神经元要被丢弃的概率。不过对于dropout后,为什么需要进行rescale(即除以retain_prob)我也不太理解,附上论文地址[7]以及此部分参考文献[8],有空再学习一下。

 

(5)Batch Normalization(批标准化)[1][2]

目前BN是深度学习中较好的一种优化策略。在优化性能很大程度上超越了正则化和Dropout策略。它的优势可以总结如下三点[3]:

  • 提高了网络的训练速度,收敛过程大大加快。可以选择较大的初始学习率,同时学习率的衰减速度也会变大,就加快了网络的收敛,不需要像之前一样慢慢调整学习率。
  • 提高了网络泛化能力。可以不用理会过拟合中的dropout、L2正则项参数的选择问题。

? ? ??BN正则化模型:使用BN训练时,一个样本只与minibatch中其他样本有相互关系;对于同一个训练样本,网络的输出会发生? ? ? ?变化。这些效果有助于提升网络泛化能力,像dropout一样防止网络过拟合,同时BN的使用,可以减少或者去掉dropout类似的策略

  • 不需要使用局部响应归一化层。BN本身就是一个归一化网络层。可以采用具有非线性饱和特性的激活函数(比如:s型激活函数),因为它可以避免网络陷入饱和状态。

问题提出:

深度网络参数训练时内部存在协方差偏移(Internal Covariate Shift)现象:深度网络内部数据分布在训练过程中发生变化的现象。

为什么会带来不好影响:训练深度网络时,神经网络隐层参数更新会导致网络输出层输出数据的分布发生变化,而且随着层数的增加,根据链式规则,这种偏移现象会逐渐被放大。这对于网络参数学习来说是个问题:因为神经网络本质学习的就是数据分布(representation learning),如果数据分布变化了,神经网络又不得不学习新的分布。为保证网络参数训练的稳定性和收敛性,往往需要选择比较小的学习速率(learning rate),同时参数初始化的好坏也明显影响训练出的模型精度,特别是在训练具有饱和非线性(死区特性)的网络,比如即采用S或双S激活函数网络,比如LSTM,GRU。[9]

解决办法:

引入Batch Normalization,作为深度网络模型的一个层,每次先对input数据进行归一化,再送入神经网络输入层。

?

关于BN的实现大家可以直接看原文[1],这里有知乎的一个问题:深度学习中 Batch Normalization为什么效果好?[10],讲解的很细致,大家可以围观。这里附上两个关于BN的常见问题[11]:

关于BN的两点理解:?
1.为什么它能缓解DNN训练中的梯度消失/爆炸现象??
关于梯度消失的一个简单例子是0.930≈0.040.930≈0.04,而BN通过归范化各层的输入数据使得原本会减小的data value的scale变大,这样反向求出的梯度scale应该也会相应增大。?
2.为什么在normalize后还有一个scale and shift操作??
就像上面算法注释解释的,仅是简单的对网络层输入作归一化可能会改变原本的输入表示,而加入scale and shift操作,让归一化操作有机会通过对参数γ,βγ,β 的学习将其变回去,不改变输入表示。

?

参考文献

[1]?Batch Normalization: Accelerating Deep Network Training b y Reducing Internal Covariate Shift

[2]?Batch Normalization 学习笔记

[3]?深入理解Batch Normalization批标准化

[4]?机器学习之正则化(Regularization)

[5]【一看就懂】机器学习之L1和L2正则化

[6]?《Improving neural networks by preventing?co-adaptation of feature detectors》

[7]?Regularization of Neural Networks using DropConnect

[8]?深度学习之-Dropout的讲解(5)

[9]?<深度学习优化策略-1>Batch Normalization(BN)

[10]?深度学习中 Batch Normalization为什么效果好?

[11]关于深度学习中的Batch normalization的理解

?

?

平台注册入口