吴恩达深度学习笔记汇编2-1:改善深层神经网络:超参数调试、正则化以及优化(Improving Deep Neural Networks:Hyperparameter tuning, Regularization and Optimization)

这部分知识是我在学习吴恩达的深度学习课程时对其笔记的汇总与编注。

这节笔记内容上基本没有什么问题,解释的也都很清楚,也没有很难的公式推导,所以基本就照搬了原笔记,只有一部分小改动

课程地址:【[双语字幕]吴恩达深度学习deeplearning.aihttps://www.bilibili.com/video/BV1FT4y1E74V

笔记链接:https://github.com/fengdu78/deeplearning_ai_books

笔记在线阅读:http://www.ai-start.com/dl2017/

深度学习的实用层面(Practical aspects of Deep Learning)

训练,验证,测试集(Train / Dev / Test sets)

大家可能已经了解了,那么本周,我们将继续学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。

第一周,我们首先说说神经网络机器学习中的问题,然后是正则化,还会学习一些确保神经网络正确运行的技巧,带着这些问题,我们开始今天的课程。

在配置训练、验证和测试数据集的过程中做出正确决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,我们需要做出很多决策,例如:

  1. 神经网络分多少层

  2. 每层含有多少个隐藏单元

  3. 学习速率是多少

  4. 各层采用哪些激活函数

创建新应用的过程中,我们不可能从一开始就准确预测出这些信息和其他超级参数。实际上,应用型机器学习是一个高度迭代的过程,通常在项目启动时,我们会先有一个初步想法,比如构建一个含有特定层数,隐藏单元数量或数据集个数等等的神经网络,然后编码,并尝试运行这些代码,通过运行和测试得到该神经网络或这些配置信息的运行结果,你可能会根据输出结果重新完善自己的想法,改变策略,或者为了找到更好的神经网络不断迭代更新自己的方案。

目前为止,我觉得,对于很多应用系统,即使是经验丰富的深度学习行家也不太可能一开始就预设出最匹配的超级参数,所以说,应用深度学习是一个典型的迭代过程,需要多次循环往复,才能为应用程序找到一个称心的神经网络,因此循环该过程的效率是决定项目进展速度的一个关键因素,而创建高质量的训练数据集,验证集和测试集也有助于提高循环效率。

假设这是训练数据,我用一个长方形表示,我们通常会将这些数据划分成几部分,一部分作为训练集,一部分作为简单交叉验证集,有时也称之为验证集,方便起见,我就叫它验证集(dev set),其实都是同一个概念,最后一部分则作为测试集。

接下来,我们开始对训练集执行算法,通过验证集或简单交叉验证集选择最好的模型,经过充分验证,我们选定了最终模型,然后就可以在测试集上进行评估了,为了无偏评估算法的运行状况。

在机器学习发展的小数据量时代,常见做法是将所有数据三七分,就是人们常说的70%训练集,30%测试集。如果明确设置了验证集,也可以按照60%训练集,20%验证集和20%测试集来划分。这是前几年机器学习领域普遍认可的最好的实践方法。

如果只有100条,1000条或者1万条数据,那么上述比例划分是非常合理的。

但是在大数据时代,我们现在的数据量可能是百万级别,那么验证集和测试集占数据总量的比例会趋向于变得更小。因为验证集的目的就是验证不同的算法,检验哪种算法更有效,因此,验证集只要足够大到能评估不同的算法,比如2个甚至10个不同算法,并迅速判断出哪种算法更有效。我们可能不需要拿出20%的数据作为验证集。

比如我们有100万条数据,那么取1万条数据便足以进行评估,找出其中表现最好的1-2种算法。同样地,根据最终选择的分类器,测试集的主要目的是正确评估分类器的性能,所以,如果拥有百万数据,我们只需要1000条数据,便足以评估单个分类器,并且准确评估该分类器的性能。假设我们有100万条数据,其中1万条作为验证集,1万条作为测试集,100万里取1万,比例是1%,即:训练集占98%,验证集和测试集各占1%。对于数据量过百万的应用,训练集可以占到99.5%,验证和测试集各占0.25%,或者验证集占0.4%,测试集占0.1%。

总结一下,在机器学习中,我们通常将样本分成训练集,验证集和测试集三部分,数据集规模相对较小,适用传统的划分比例,数据集规模较大的,验证集和测试集要小于数据总量的20%或10%。后面我会给出如何划分验证集和测试集的具体指导。

现代深度学习的另一个趋势是越来越多的人在训练和测试集分布不匹配的情况下进行训练,假设你要构建一个用户可以上传大量图片的应用程序,目的是找出并呈现所有猫咪图片,可能你的用户都是爱猫人士,训练集可能是从网上下载的猫咪图片,而验证集和测试集是用户在这个应用上上传的猫的图片,就是说,训练集可能是从网络上抓下来的图片。而验证集和测试集是用户上传的图片。结果许多网页上的猫咪图片分辨率很高,很专业,后期制作精良,而用户上传的照片可能是用手机随意拍摄的,像素低,比较模糊,这两类数据有所不同,针对这种情况,根据经验,我建议大家要确保验证集和测试集的数据来自同一分布,关于这个问题我也会多讲一些。因为你们要用验证集来评估不同的模型,尽可能地优化性能。如果验证集和测试集来自同一个分布就会很好。

但由于深度学习算法需要大量的训练数据,为了获取更大规模的训练数据集,我们可以采用当前流行的各种创意策略,例如,网页抓取,代价就是训练集数据与验证集和测试集数据有可能不是来自同一分布。但只要遵循这个经验法则,你就会发现机器学习算法会变得更快。我会在后面的课程中更加详细地解释这条经验法则。

最后一点,就算没有测试集也不要紧,测试集的目的是对最终所选定的神经网络系统做出无偏估计,如果不需要无偏估计,也可以不设置测试集。所以如果只有验证集,没有测试集,我们要做的就是,在训练集上训练,尝试不同的模型框架,在验证集上评估这些模型,然后迭代并选出适用的模型。因为验证集中已经涵盖测试集数据,其不再提供无偏性能评估。当然,如果你不需要无偏估计,那就再好不过了。

在机器学习中,如果只有一个训练集和一个验证集,而没有独立的测试集,遇到这种情况,训练集还被人们称为训练集,而验证集则被称为测试集,不过在实际应用中,人们只是把测试集当成简单交叉验证集使用,并没有完全实现该术语的功能,因为他们把验证集数据过度拟合到了测试集中。如果某团队跟你说他们只设置了一个训练集和一个测试集,我会很谨慎,心想他们是不是真的有训练验证集,因为他们把验证集数据过度拟合到了测试集中,让这些团队改变叫法,改称其为“训练验证集”,而不是“训练测试集”,可能不太容易。即便我认为“训练验证集“在专业用词上更准确。实际上,如果你不需要无偏评估算法性能,那么这样是可以的。

所以说,搭建训练验证集和测试集能够加速神经网络的集成,也可以更有效地衡量算法地偏差和方差,从而帮助我们更高效地选择合适方法来优化算法。

 

偏差,方差(Bias /Variance)

我注意到,几乎所有机器学习从业人员都期望深刻理解偏差和方差,这两个概念易学难精,即使你自己认为已经理解了偏差和方差的基本概念,却总有一些意想不到的新东西出现。关于深度学习的误差问题,另一个趋势是对偏差和方差的权衡研究甚浅,你可能听说过这两个概念,但深度学习的误差很少权衡二者,我们总是分别考虑偏差和方差,却很少谈及偏差和方差的权衡问题,下面我们来一探究竟。

假设这就是数据集(如上图),如果给这个数据集拟合一条直线(下图左侧),可能得到一个逻辑回归拟合,但它并不能很好地拟合该数据,这是高偏差(high bias)的情况,我们称为“欠拟合”(underfitting)。

相反的如果我们拟合一个非常复杂的分类器(下图右侧),比如深度神经网络或含有隐藏单元的神经网络,可能就非常适用于这个数据集,但是这看起来也不是一种很好的拟合方式分类器方差较高(high variance),数据过度拟合(overfitting)。

在两者之间,可能还有一些像图中这样的(下图中间),复杂程度适中,数据拟合适度的分类器,这个数据拟合看起来更加合理,我们称之为“适度拟合”(just right)是介于过度拟合和欠拟合中间的一类。

在这样一个只有 x1x_1x2x_2 两个特征的二维数据集中,我们可以绘制数据,将偏差和方差可视化。在多维空间数据中,绘制数据和可视化分割边界无法实现,但我们可以通过几个指标,来研究偏差和方差。

我们沿用猫咪图片分类这个例子,左边一张是猫咪图片,右边一张不是。理解偏差和方差的两个关键数据是训练集误差(Train set error)和验证集误差(Dev set error),为了方便论证,假设我们可以辨别图片中的小猫,我们用肉眼识别几乎是不会出错的。

假定训练集误差是1%,为了方便论证,假定验证集误差是11%,可以看出训练集设置得非常好,而验证集设置相对较差,我们可能过度拟合了训练集,在某种程度上,验证集并没有充分利用交叉验证集的作用,像这种情况,我们称之为“高方差”。

通过查看训练集误差和验证集误差,我们便可以诊断算法是否具有高方差。也就是说衡量训练集和验证集误差就可以得出不同结论。

如下图,假设训练集误差是15%,我们把训练集误差写在首行,验证集误差是16%,假设该案例中人的错误率几乎为0%,人们浏览这些图片,分辨出是不是猫。算法并没有在训练集中得到很好训练,如果训练数据的拟合度不高,就是数据欠拟合,就可以说这种算法偏差比较高。相反,它对于验证集产生的结果却是合理的,验证集中的错误率只比训练集的多了1%,所以这种算法偏差高,因为它甚至不能拟合训练集,这与上一张幻灯片最左边的图片相似。

再举一个例子,训练集误差是15%,偏差相当高,但是,验证集的评估结果更糟糕,错误率达到30%,在这种情况下,我会认为这种算法偏差高,因为它在训练集上结果不理想,而且方差也很高,这是方差偏差都很糟糕的情况。

再看最后一个例子,训练集误差是0.5%,验证集误差是1%,用户看到这样的结果会很开心,猫咪分类器只有1%的错误率,偏差和方差都很低。

有一点我先在这个简单提一下,具体的留在后面课程里讲,这些分析都是基于假设预测的,假设人眼辨别的错误率接近0%,一般来说,最优误差也被称为贝叶斯误差,所以,最优误差接近0%,我就不在这里细讲了,如果最优误差或贝叶斯误差非常高,比如15%。我们再看看这个分类器(训练误差15%,验证误差16%),15%的错误率对训练集来说也是非常合理的,偏差不高,方差也非常低。

当所有分类器都不适用时,如何分析偏差和方差呢?比如,图片很模糊,即使是人眼,或者没有系统可以准确无误地识别图片,在这种情况下,最优误差会更高,那么分析过程就要做些改变了,我们暂时先不讨论这些细微差别,重点是通过查看训练集误差,我们可以判断数据拟合情况,至少对于训练数据是这样,可以判断是否有偏差问题,然后查看错误率有多高。当完成训练集训练,开始使用验证集验证时,我们可以判断方差是否过高,从训练集到验证集的这个过程中,我们可以判断方差是否过高。

以上分析的前提都是假设基本误差很小,训练集和验证集数据来自相同分布,如果没有这些假设作为前提,分析过程更加复杂,我们将会在稍后课程里讨论。

上一张幻灯片,我们讲了高偏差和高方差的情况,大家应该对优质分类器有了一定的认识,偏差和方差都高是什么样子呢?这种情况对于两个衡量标准来说都是非常糟糕的。

我们之前讲过,这样的分类器,会产生高偏差,因为它的数据拟合度低,像这种接近线性的分类器,数据拟合度低。

但是如果我们稍微改变一下分类器,我用紫色笔画出,它会过度拟合部分数据,用紫色线画出的分类器具有高偏差和高方差,偏差高是因为它几乎是一条线性分类器,并未拟合数据。

这种二次曲线(蓝色虚线)能够很好地拟合数据。

而采用某些曲线函数或二次元函数会产生高方差(比如上图蓝加紫的这种),因为它曲线灵活性太高以致拟合了这两个错误样本和中间这些活跃数据。

这看起来有些不自然,从两个维度上看都不太自然,但对于高维数据,有些数据区域偏差高,有些数据区域方差高,所以在高维数据中采用这种分类器看起来就不会那么牵强了。

总结一下,我们讲了如何通过分析在训练集上训练算法产生的误差和验证集上验证算法产生的误差来诊断算法是否存在高偏差和高方差,是否两个值都高,或者两个值都不高,根据算法偏差和方差的具体情况决定接下来你要做的工作,下节课,我会根据算法偏差和方差的高低情况讲解一些机器学习的基本方法,帮助大家更系统地优化算法,我们下节课见。

 

机器学习基础(Basic Recipe for Machine Learning)

上节课我们讲的是如何通过训练误差和验证集误差判断算法偏差或方差是否偏高,帮助我们更加系统地在机器学习中运用这些方法来优化算法性能。

下图就是我在训练神经网络用到的基本方法:(尝试这些方法,可能有用,可能没用)

这是我在训练神经网络时用到地基本方法,初始模型训练完成后,我首先要知道算法的偏差高不高,如果偏差较高,试着评估训练集或训练数据的性能。如果偏差的确很高,甚至无法拟合训练集,那么你要做的就是选择一个新的网络,比如含有更多隐藏层或者隐藏单元的网络,或者花费更多时间来训练网络,或者尝试更先进的优化算法。

一会儿我们会看到许多不同的神经网络架构,或许你能找到一个更合适解决此问题的新的网络架构,你必须去尝试,可能有用,也可能没用,不过采用规模更大的网络通常都会有所帮助,延长训练时间不一定有用,但也没什么坏处。训练学习算法时,我会不断尝试这些方法,直到解决掉偏差问题,这是最低标准,反复尝试,直到可以拟合数据为止,至少能够拟合训练集。

如果网络足够大,通常可以很好的拟合训练集,只要你能扩大网络规模,如果图片很模糊,算法可能无法拟合该图片,但如果有人可以分辨出图片,如果你觉得基本误差不是很高,那么训练一个更大的网络,你就应该可以……至少可以很好地拟合训练集,至少可以拟合或者过拟合训练集。一旦偏差降低到可以接受的数值,检查一下方差有没有问题,为了评估方差,我们要查看验证集性能,我们能从一个性能理想的训练集推断出验证集的性能是否也理想,如果方差高,最好的解决办法就是采用更多数据,如果你能做到,会有一定的帮助,但有时候,我们无法获得更多数据,我们也可以尝试通过正则化来减少过拟合,这个我们下节课会讲。有时候我们不得不反复尝试,但是,如果能找到更合适的神经网络框架,有时它可能会一箭双雕,同时减少方差和偏差。如何实现呢?想系统地说出做法很难,总之就是不断重复尝试,直到找到一个低偏差,低方差的框架,这时你就成功了。

有两点需要大家注意:

第一点,高偏差和高方差是两种不同的情况,我们后续要尝试的方法也可能完全不同,我通常会用训练验证集来诊断算法是否存在偏差或方差问题,然后根据结果选择尝试部分方法。举个例子,如果算法存在高偏差问题,准备更多训练数据其实也没什么用处,至少这不是更有效的方法,所以大家要清楚存在的问题是偏差还是方差,还是两者都有问题,明确这一点有助于我们选择出最有效的方法。

第二点,在机器学习的初期阶段,关于所谓的偏差方差权衡的讨论屡见不鲜,原因是我们能尝试的方法有很多。可以增加偏差,减少方差,也可以减少偏差,增加方差,在深度学习的早期阶段,我们也没有太多工具可以做到只减少偏差或方差却不影响到另一方。但在当前的深度学习和大数据时代,只要持续训练一个更大的网络,只要准备了更多数据,那么也并非只有这两种情况,我们假定是这样,那么,只要正则适度,通常构建一个更大的网络便可以,在不影响方差的同时减少偏差,而采用更多数据通常可以在不过多影响偏差的同时减少方差。这两步实际要做的工作是:训练网络,选择网络或者准备更多数据,现在我们有工具可以做到在减少偏差或方差的同时,不对另一方产生过多不良影响。我觉得这就是深度学习对监督式学习大有裨益的一个重要原因,也是我们不用太过关注如何平衡偏差和方差的一个重要原因,但有时我们有很多选择,减少偏差或方差而不增加另一方。最终,我们会得到一个非常规范化的网络。从下节课开始,我们将讲解正则化,训练一个更大的网络几乎没有任何负面影响,而训练一个大型神经网络的主要代价也只是计算时间,前提是网络是比较规范化的。

今天我们讲了如何通过组织机器学习来诊断偏差和方差的基本方法,然后选择解决问题的正确操作,希望大家有所了解和认识。我在课上不止一次提到了正则化,它是一种非常实用的减少方差的方法,正则化时会出现偏差方差权衡问题,偏差可能略有增加,如果网络足够大,增幅通常不会太高,我们下节课再细讲,以便大家更好理解如何实现神经网络的正则化。

 

正则化(Regularization)

深度学习可能存在过拟合问题——高方差,有两个解决方法,一个是正则化,另一个是准备更多的数据,这是非常可靠的方法,但你可能无法时时刻刻准备足够多的训练数据或者获取更多数据的成本很高,但正则化通常有助于避免过拟合或减少你的网络误差。

如果你怀疑神经网络过度拟合了数据,即存在高方差问题,那么最先想到的方法可能是正则化,另一个解决高方差的方法就是准备更多数据,这也是非常可靠的办法,但你可能无法时时准备足够多的训练数据,或者,获取更多数据的成本很高,但正则化有助于避免过度拟合,或者减少网络误差,下面我们就来讲讲正则化的作用原理。

我们用逻辑回归来实现这些设想,求成本函数 JJ 的最小值,它是我们定义的成本函数,参数包含一些训练数据和不同数据中个体预测的损失,wwbb 是逻辑回归的两个参数,ww 是一个多维度参数矢量,bb 是一个实数。在逻辑回归函数中加入正则化(如下图),只需添加参数 λλ,也就是正则化参数,一会儿再详细讲。

λ2m\frac{\lambda}{2m} 乘以 ww 范数的平方,其中 w22\left\| w \right\|_2^2ww 的欧几里德范数的平方,等于 wjw_{j}jj 值从1到 nxn_{x})平方的和,也可表示为 wTww^{T}w,也就是向量参数 ww 的欧几里德范数(2范数)的平方,此方法称为 L2L2 正则化,因为这里用了欧几里德范数,被称为向量参数 wwL2L2 范数。

为什么只正则化参数 ww ?为什么不再加上参数 bb 呢?你可以这么做,只是我习惯省略不写,因为 ww 通常是一个高维参数矢量,已经可以表达高偏差问题,ww 可能包含有很多参数,我们不可能拟合所有参数,而 bb 只是单个数字,所以 ww 几乎涵盖所有参数,而不是 bb,如果加了参数 bb,其实也没太大影响,因为 bb 只是众多参数中的一个,所以我通常省略不计,如果你想加上这个参数,完全没问题。

L2L2 正则化是最常见的正则化类型,你们可能听说过 L1L1 正则化,L1L1 正则化,加的不是 L2L2 范数,而是正则项 λm\frac{\lambda}{m} 乘以 j=1nxw\sum_{j= 1}^{n_x}{|w|}j=1nxw\sum_{j =1}^{n_x}{|w|} 也被称为参数 ww 向量的 L1L1 范数,无论分母是 mm 还是 2m2m,它都是一个比例常量。

如果用的是 L1L1 正则化,ww 最终会是稀疏的,也就是说 ww 向量中有很多0,有人说这样有利于压缩模型,因为集合中参数均为0,存储模型所占用的内存更少。实际上,虽然 L1L1 正则化使模型变得稀疏,却没有降低太多存储内存,所以我认为这并不是 L1L1 正则化的目的,至少不是为了压缩模型,人们在训练网络时,越来越倾向于使用 L2L2 正则化。

我们来看最后一个细节,λ\lambda 是正则化参数,我们通常使用验证集或交叉验证集来配置这个参数,尝试各种各样的数据,寻找最好的参数,我们要考虑训练集之间的权衡,把参数设置为较小值,这样可以避免过拟合,所以 λλ 是另外一个需要调整的超级参数,顺便说一下,为了方便写代码,在Python编程语言中,λ\lambda 是一个保留字段,编写代码时,我们删掉 aa,写成 lambdlambd,以免与Python中的保留字段冲突,这就是在逻辑回归函数中实现 L2L2 正则化的过程,如何在神经网络中实现 L2L2 正则化呢?

神经网络含有一个成本函数,该函数包含 W[1]W^{[1]}b[1]b^{[1]}W[l]W^{[l]}b[l]b^{[l]} 所有参数,字母 LL 是神经网络所含的层数,因此成本函数等于 mm 个训练样本损失函数的总和乘以 1m\frac{1}{m},正则项为 λ2m1LW[l]2\frac{\lambda }{2m}\sum_{1}^{L}|| {W}^{[l]}||^{2},我们称 W[l]2{||W^{\left[l\right]}||}^{2} 为范数平方,这个矩阵范数 W[l]2{||W^{\left[l\right]}||}^{2}(即平方范数),被定义为矩阵中所有元素的平方求和,

我们看下求和公式的具体参数,第一个求和符号其值 ii 从1到 n[l1]n^{[l - 1]},第二个其 JJ 值从1到 n[l]n^{[l]},因为 WW 是一个 n[l]×n[l1]n^{[l]}\times n^{[l-1]} 的多维矩阵,n[l]n^{[l]} 表示 ll 层单元的数量,n[l1]n^{[l-1]} 表示第 l1l-1 层隐藏单元的数量。

该矩阵范数被称作“弗罗贝尼乌斯范数”,用下标 FF 标注,鉴于线性代数中一些神秘晦涩的原因,我们不称之为“矩阵 L2L2 范数”,而称它为“弗罗贝尼乌斯范数”,矩阵 L2L2 范数听起来更自然,但鉴于一些大家无须知道的特殊原因,按照惯例,我们称之为“弗罗贝尼乌斯范数”,它表示一个矩阵中所有元素的平方和。

该如何使用该范数实现梯度下降呢?

backprop计算出 dWdW 的值,backprop会给出 JJWW 的偏导数,实际上是 W[l]W^{[l]},把 W[l]W^{[l]} 替换为 W[l]αdWW^{[l]}-\alpha\cdot dW

这就是之前我们额外增加的正则化项,既然已经增加了这个正则项,现在我们要做的就是给 dWdW 加上这一项λmW[l]\frac {\lambda}{m}W^{[l]} (就是下图绿色方框内容),然后计算这个更新项,使用新定义的 dW[l]dW^{[l]},它的定义含有相关参数代价函数导数和,以及最后添加的额外正则项,这也是 L2L2 正则化有时被称为“权重衰减”的原因。

我们用 dW[l]dW^{[l]} 的定义替换此处的 dW[l]dW^{[l]},可以看到,W[l]W^{[l]} 的定义被更新为 W[l]W^{[l]} 减去学习率 α\alpha 乘以backprop 再加上 λmW[l]\frac{\lambda}{m}W^{[l]} ,公式如下

W[l]=W[l]α[(from backprop)+λmW[l]]=W[l]αλmW[l]α(from backprop)=(1αλm)W[l]α(from backprop)\begin{aligned} W^{[l]} &= W^{[l]}-\alpha [(from\ backprop) + \frac{\lambda}{m}W^{[l]}]\\ &= W^{[l]}-\frac{\alpha\lambda}{m}W^{[l]} - \alpha \cdot(from\ backprop)\\ &=(1-\frac{\alpha\lambda}{m})W^{[l]} - \alpha \cdot(from\ backprop) \end{aligned}

该正则项说明,不论 W[l]W^{[l]} 是什么,我们都试图让它变得更小,实际上,相当于我们给矩阵 WW 乘以 (1αλm)(1 - \alpha\frac{\lambda}{m}) 倍的权重,该权重小于1,因此 L2L2 范数正则化也被称为“权重衰减”。

以上就是在神经网络中应用 L2L2 正则化的过程,有人会问我,为什么正则化可以预防过拟合,我们放在下节课讲,同时直观感受一下正则化是如何预防过拟合的。

 

为什么正则化有利于预防过拟合呢?(Why regularization reduces overfitting?)

为什么正则化有利于预防过拟合呢?为什么它可以减少方差问题?我们通过两个例子来直观体会一下。

左图是高偏差,右图是高方差,中间是Just Right,这几张图我们在前面课程中看到过。

现在我们来看下这个庞大的深度拟合神经网络。我知道这张图不够大,深度也不够,但你可以想象这是一个过拟合的神经网络。这是我们的代价函数 JJ,含有参数 W[l]W^{[l]}b[l]b^{[l]} 。我们添加正则项,它可以避免数据权值矩阵过大,这就是弗罗贝尼乌斯范数,为什么压缩 L2L2 范数,或者弗罗贝尼乌斯范数或者参数可以减少过拟合?

直观上理解就是如果正则化 λ\lambda 设置得足够大,权重矩阵 WW 被设置为接近于0的值,就相当于把多隐藏单元的权重设为0,于是基本上消除了这些隐藏单元的许多影响。如果是这种情况,这个被大大简化了的神经网络会变成一个很小的网络,小到如同一个逻辑回归单元,可是深度却很大,它会使这个网络从过度拟合的状态更接近左图的高偏差状态。

但是 λ\lambda 会存在一个中间值,于是会有一个接近“Just Right”的中间状态。

直观理解就是 λ\lambda 增加到足够大,WW 会接近于0,实际上是不会发生这种情况的,我们尝试消除或至少减少许多隐藏单元的影响,最终这个网络会变得更简单,这个神经网络越来越接近逻辑回归,我们直觉上认为大量隐藏单元被完全消除了,其实不然,实际上是该神经网络的所有隐藏单元依然存在,但是它们的影响变得更小了。神经网络变得更简单了,貌似这样更不容易发生过拟合,因此我不确定这个直觉经验是否有用,不过在编程中执行正则化时,你实际看到一些方差减少的结果。

我们再来直观感受一下,正则化为什么可以预防过拟合,假设我们用的是这样的双曲线激活函数。

g(z)g(z) 表示 tanh(z)tanh(z),我们发现如果 zz 非常小,比如 zz 只涉及很小范围的参数(图中原点附近的红色区域),这里我们利用了双曲正切函数的线性状态,只要 zz 可以扩展为这样的更大值或者更小值,激活函数开始变得非线性。

所以如果正则化参数 λλ 很大,激活函数的参数会相对较小,因为代价函数中的参数变大了。所以如果 WW 很小,因为 z[l]=W[l]a[l1]+b[l]z^{[l]}=W^{[l]}a^{[l-1]}+b^{[l]} ,那么如果 WW 很小,相对来说,zz 也会很小。 特别是,如果 zz 的值最终在下图红线这个范围内,都是相对较小的值,那么 g(z)g(z) 大致呈线性,每层几乎都是线性的,和线性回归函数一样。

第一节课我们讲过,如果每层都是线性的,那么整个网络就是一个线性网络,即使是一个非常深的深层网络,因具有线性激活函数的特征,最终我们只能计算线性函数,因此,它就会不适用于非常复杂的决策,以及过度拟合数据集的非线性决策边界,如同我们在幻灯片中看到的过度拟合高方差的情况。

总结一下,如果正则化参数变得很大,参数 WW很小,zz 也会相对变小,此时忽略 bb 的影响,zz 会相对变小,实际上,zz 的取值范围很小,这个激活函数,也就是曲线函数 tanhtanh 会相对呈线性,整个神经网络会计算离线性函数近的值,这个线性函数非常简单,并不是一个极复杂的高度非线性函数,不会发生过拟合。

大家在编程作业里实现正则化的时候,会亲眼看到这些结果,总结正则化之前,我给大家一个执行方面的小建议,在增加正则化项时,应用之前定义的代价函数 JJ,我们做过修改,增加了一项,目的是预防权重过大。

如果你使用的是梯度下降函数,在调试梯度下降时,其中一步就是把代价函数 JJ 设计成这样一个函数,在调试梯度下降时,它代表梯度下降的调幅数量。可以看到,代价函数对于梯度下降的每个调幅都单调递减。如果你实施的是正则化函数,请牢记,JJ 已经有一个全新的定义。如果你用的是原函数 JJ,也就是这第一个项正则化项,你可能看不到单调递减现象,为了调试梯度下降,请务必使用新定义的 JJ 函数,它包含第二个正则化项,否则函数 JJ 可能不会在所有调幅范围内都单调递减。

这就是 L2L2 正则化,它是我在训练深度学习模型时最常用的一种方法。在深度学习中,还有一种方法也用到了正则化,就是dropout正则化,我们下节课再讲。

 

dropout 正则化(Dropout Regularization)

除了 L2L2 正则化,还有一个非常实用的正则化方法——“Dropout(随机失活)”,我们来看看它的工作原理。

假设你在训练上图这样的神经网络,它存在过拟合,这就是dropout所要处理的,我们复制这个神经网络,dropout会遍历网络的每一层,并设置消除神经网络中节点的概率。假设网络中的每一层,每个节点都以抛硬币的方式设置概率,每个节点得以保留和消除的概率都是0.5,设置完节点概率,我们会消除一些节点,然后删除掉从该节点进出的连线,最后得到一个节点更少,规模更小的网络,然后用backprop方法进行训练。

这是网络节点精简后的一个样本,对于其它样本,我们照旧以抛硬币的方式设置概率,保留一类节点集合,删除其它类型的节点集合。对于每个训练样本,我们都将采用一个精简后神经网络来训练它,这种方法似乎有点怪,单纯遍历节点,编码也是随机的,可它真的有效。不过可想而知,我们针对每个训练样本训练规模小得多的网络,最后你可能会认识到为什么要正则化网络,因为我们在训练规模小得多的网络。

如何实施dropout呢?方法有几种,接下来我要讲的是最常用的方法,即inverted dropout(反向随机失活),出于完整性考虑,我们用一个三层(l=3l=3)网络来举例说明。编码中会有很多涉及到3的地方。我只举例说明如何在某一层中实施dropout

首先要定义向量 ddd[3]d^{[3]} 表示网络第三层的dropout向量:

d3 = np.random.rand(a3.shape[0],a3.shape[1])

然后看它是否小于某数,我们称之为keep-probkeep-prob是一个具体数字,上个示例中它是0.5,而本例中它是0.8,它表示保留某个隐藏单元的概率,此处keep-prob等于0.8,它意味着消除任意一个隐藏单元的概率是0.2,它的作用就是生成随机矩阵,如果对 a[3]a^{[3]} 进行因子分解,效果也是一样的。d[3]d^{[3]} 是一个矩阵,每个样本和每个隐藏单元,其中 d[3]d^{[3]} 中的对应值为1的概率都是0.8,对应为0的概率是0.2,随机数字小于0.8。它等于1的概率是0.8,等于0的概率是0.2。

接下来要做的就是从第三层中获取激活函数,这里我们叫它 a[3]a^{[3]}a[3]a^{[3]} 含有要计算的激活函数,a[3]a^{[3]} 等于上面的 a[3]a^{[3]} 乘以 d[3]d^{[3]}a3 =np.multiply(a3,d3),这里是元素相乘,也可写为 a3=d3a3*=d3,它的作用就是让 d[3]d^{[3]} 中所有等于0的元素(输出),而各个元素等于0的概率只有20%,乘法运算最终把 d[3]d^{\left\lbrack3 \right]} 中相应元素输出,即让 d[3]d^{[3]} 中0元素与 a[3]a^{[3]} 中相对应的元素归零。(搞不懂为什么要这么说,其实就是将 a[3]a^{[3]} 中对应 d[3]d^{[3]} 位置为0的元素归零)

如果用python实现该算法的话,d[3]d^{[3]} 则是一个布尔型数组,值为truefalse,而不是1和0,乘法运算依然有效,python会把truefalse翻译为1和0,大家可以用python尝试一下。

最后,我们向外扩展 a[3]a^{[3]},用它除以0.8,或者除以keep-prob参数。

下面我解释一下为什么要这么做,为方便起见,我们假设第三隐藏层上有50个单元或50个神经元,在一维上 a[3]a^{[3]} 是50,我们通过因子分解将它拆分成 50×m50×m 维的,保留和删除它们的概率分别为80%和20%,这意味着最后被删除或归零的单元平均有10(50×20%=10)个,现在我们看下 z[4]z^{\lbrack4]}z[4]=w[4]a[3]+b[4]z^{[4]} = w^{[4]} a^{[3]} + b^{[4]},我们的预期是,a[3]a^{[3]} 减少20%,也就是说 a[3]a^{[3]} 中有20%的元素被归零,为了不影响 z[4]z^{\lbrack4]} 的期望值,我们需要用 w[4]a[3]/0.8w^{[4]} a^{[3]}/0.8,它将会修正或弥补我们所需的那20%,a[3]a^{[3]} 的期望值不会变,划线部分就是所谓的dropout方法( a3/=keeppropa3/=keep-prop )。

它的功能是,不论keep-prop的值是多少0.8,0.9甚至是1,如果keep-prop设置为1,那么就不存在dropout,因为它会保留所有节点。反向随机失活(inverted dropout)方法通过除以keep-prob,确保 a[3]a^{[3]} 的期望值不变。

事实证明,在测试阶段,当我们评估一个神经网络时,也就是用绿线框标注的反向随机失活方法,使测试阶段变得更容易,因为它的数据扩展问题变少,我们将在下节课讨论。

据我了解,目前实施dropout最常用的方法就是Inverted dropout,建议大家动手实践一下。Dropout早期的迭代版本都没有除以keep-prob,所以在测试阶段,平均值会变得越来越复杂,不过那些版本已经不再使用了。

现在你使用的是dd向量,你会发现,不同的训练样本,清除不同的隐藏单元也不同。实际上,如果你通过相同训练集多次传递数据,每次训练数据的梯度不同,则随机对不同隐藏单元归零,有时却并非如此。比如,需要将相同隐藏单元归零,第一次迭代梯度下降时,把一些隐藏单元归零,第二次迭代梯度下降时,也就是第二次遍历训练集时,对不同类型的隐藏层单元归零。向量 ddd[3]d^{[3]} 用来决定第三层中哪些单元归零,无论用foreprop还是backprop,这里我们只介绍了foreprob

如何在测试阶段训练算法,在测试阶段,我们已经给出了 xx,或是想预测的变量,用的是标准计数法。我用 a[0]a^{\lbrack0]},第0层的激活函数标注为测试样本 xx,我们在测试阶段不使用dropout函数,尤其是像下列情况:

z[1]=w[1]a[0]+b[1]z^{[1]} = w^{[1]} a^{[0]} + b^{[1]}

a[1]=g[1](z[1])a^{[1]} = g^{[1]}(z^{[1]})

z[2]= w[2]a[1]+b[2]z^{[2]} = \ w^{[2]} a^{[1]} + b^{[2]}

a[2]=a^{[2]} = \ldots

以此类推直到最后一层,预测值为 y^\hat{y}

显然在测试阶段,我们并未使用dropout,自然也就不用抛硬币来决定失活概率,以及要消除哪些隐藏单元了,因为在测试阶段进行预测时,我们不期望输出结果是随机的,如果测试阶段应用dropout函数,预测会受到干扰。理论上,你只需要多次运行预测处理过程,每一次,不同的隐藏单元会被随机归零,预测处理遍历它们,但计算效率低,得出的结果也几乎相同,与这个不同程序产生的结果极为相似。

Inverted dropout函数在除以keep-prob时可以记住上一步的操作,目的是确保即使在测试阶段不执行dropout来调整数值范围,激活函数的预期结果也不会发生变化,所以没必要在测试阶段额外添加尺度参数,这与训练阶段不同。

在训练过程中应用dropout时,反向dropout函数会通过除以keep-prob来对剩余的单元进行缩放。这种缩放补偿了一些单元被丢弃的事实,并确保单元的期望总和与测试阶段相同。通过除以keep-prob,可以保持训练阶段和测试阶段的期望输出一致,从而确保即使在测试阶段不执行dropout来调整数值范围,激活函数的预期结果也不会发生变化。因此,在测试阶段不需要额外添加尺度参数,与训练阶段不同。

这就是dropout,大家可以通过本周的编程练习来执行这个函数,亲身实践一下。

为什么dropout会起作用呢?下节课我们将更加直观地了解dropout的具体功能。

 

理解 dropout(Understanding Dropout)

Dropout可以随机删除网络中的神经单元,他为什么可以通过正则化发挥如此大的作用呢?

直观上理解:不要依赖于任何一个特征,因为该单元的输入可能随时被清除,因此该单元通过这种方式传播下去,并为单元的四个输入增加一点权重,通过传播所有权重,dropout将产生收缩权重的平方范数的效果,和之前讲的 L2L2 正则化类似;实施dropout的结果实它会压缩权重,并完成一些预防过拟合的外层正则化;L2L2 对不同权重的衰减是不同的,它取决于激活函数倍增的大小。

第二个直观认识是,我们从单个神经元入手,如图,这个单元的工作就是输入并生成一些有意义的输出。通过dropout,该单元的输入几乎被消除,有时这两个单元会被删除,有时会删除其它单元,就是说,我用紫色圈起来的这个单元,它不能依靠任何特征,因为特征都有可能被随机清除,或者说该单元的输入也都可能被随机清除。我不愿意把所有赌注都放在一个节点上,不愿意给任何一个输入加上太多权重,因为它可能会被删除,因此该单元将通过这种方式积极地传播开,并为单元的四个输入增加一点权重,通过传播所有权重,dropout将产生收缩权重的平方范数的效果,和我们之前讲过的 L2L2 正则化类似,实施dropout的结果是它会压缩权重,并完成一些预防过拟合的外层正则化。

事实证明,dropout被正式地作为一种正则化的替代形式,L2L2 对不同权重的衰减是不同的,它取决于倍增的激活函数的大小。

总结一下,dropout的功能类似于 L2L2 正则化,与 L2L2 正则化不同的是,被应用的方式不同,dropout也会有所不同,甚至更适用于不同的输入范围。

实施dropout的另一个细节是,这是一个拥有三个输入特征的网络,其中一个要选择的参数是keep-prob,它代表每一层上保留单元的概率。所以不同层的keep-prob也可以变化。第一层,矩阵 W[1]W^{[1]} 是7×3,第二个权重矩阵 W[2]W^{[2]} 是7×7,第三个权重矩阵 W[3]W^{[3]} 是3×7,以此类推,W[2]W^{[2]} 是最大的权重矩阵,因为 W[2]W^{[2]} 拥有最大参数集,即7×7,为了预防矩阵的过拟合,对于这一层,我认为这是第二层,它的keep-prob值应该相对较低,假设是0.5。对于其它层,过拟合的程度可能没那么严重,它们的keep-prob值可能高一些,可能是0.7,这里是0.7。如果在某一层,我们不必担心其过拟合的问题,那么keep-prob可以为1,为了表达清除,我用紫色线笔把它们圈出来,每层keep-prob的值可能不同

注意后面几层keep-prob的值是1,意味着保留所有单元,并且不在这一层使用dropout,对于有可能出现过拟合,且含有诸多参数的层,我们可以把keep-prob设置成比较小的值,以便应用更强大的dropout,有点像在处理 L2L2 正则化的正则化参数 λ\lambda,我们尝试对某些层施行更多正则化,从技术上讲,我们也可以对输入层应用dropout,我们有机会删除一个或多个输入特征,虽然现实中我们通常不这么做,keep-prob的值为1,是非常常用的输入值,也可以用更大的值,或许是0.9。但是消除一半的输入特征是不太可能的,如果我们遵守这个准则,keep-prob会接近于1,即使你对输入层应用dropout

总结一下,如果你担心某些层比其它层更容易发生过拟合,可以把某些层的keep-prob值设置得比其它层更低,缺点是为了使用交叉验证,你要搜索更多的超级参数,另一种方案是在一些层上应用dropout,而有些层不用dropout,应用dropout的层只含有一个超级参数,就是keep-prob

结束前分享两个实施过程中的技巧,实施dropout,在计算机视觉领域有很多成功的第一次。计算视觉中的输入量非常大,输入太多像素,以至于没有足够的数据,所以dropout在计算机视觉中应用得比较频繁,有些计算机视觉研究人员非常喜欢用它,几乎成了默认的选择,但要牢记一点,dropout是一种正则化方法,它有助于预防过拟合,因此除非算法过拟合,不然我是不会使用dropout的,所以它在其它领域应用得比较少,主要存在于计算机视觉领域,因为我们通常没有足够的数据,所以一直存在过拟合,这就是有些计算机视觉研究人员如此钟情于dropout函数的原因。直观上我认为不能概括其它学科。

dropout一大缺点就是代价函数 JJ 不再被明确定义,每次迭代,都会随机移除一些节点,如果再三检查梯度下降的性能,实际上是很难进行复查的。定义明确的代价函数 JJ 每次迭代后都会下降,因为我们所优化的代价函数 JJ 实际上并没有明确定义,或者说在某种程度上很难计算,所以我们失去了调试工具来绘制这样的图片。我通常会关闭dropout函数,将keep-prob的值设为1,运行代码,确保J函数单调递减。然后打开dropout函数,希望在dropout过程中,代码并未引入bug。我觉得你也可以尝试其它方法,虽然我们并没有关于这些方法性能的数据统计,但你可以把它们与dropout方法一起使用。

 

其他正则化方法(Other regularization methods)

除了 L2L2 正则化和随机失活(dropout)正则化,还有几种方法可以减少神经网络中的过拟合:

一.数据扩增

假设你正在拟合猫咪图片分类器,如果你想通过扩增训练数据来解决过拟合,但扩增数据代价高,而且有时候我们无法扩增数据,但我们可以通过添加这类图片来增加训练集。例如,水平翻转图片,并把它添加到训练集。所以现在训练集中有原图,还有翻转后的这张图片,所以通过水平翻转图片,训练集则可以增大一倍,因为训练集有冗余,这虽然不如我们额外收集一组新图片那么好,但这样做节省了获取更多猫咪图片的花费。

除了水平翻转图片,你也可以随意裁剪图片,这张图是把原图旋转并随意放大后裁剪的,仍能辨别出图片中的猫咪。

通过随意翻转和裁剪图片,我们可以增大数据集,额外生成假训练数据。和全新的,独立的猫咪图片数据相比,这些额外的假的数据无法包含像全新数据那么多的信息,但我们这么做基本没有花费,代价几乎为零,除了一些对抗性代价。以这种方式扩增算法数据,进而正则化数据集,减少过拟合比较廉价。

像这样人工合成数据的话,我们要通过算法验证,图片中的猫经过水平翻转之后依然是猫。大家注意,我并没有垂直翻转,因为我们不想上下颠倒图片,也可以随机选取放大后的部分图片,猫可能还在上面。

对于光学字符识别,我们还可以通过添加数字,随意旋转或扭曲数字来扩增数据,把这些数字添加到训练集,它们仍然是数字。为了方便说明,我对字符做了强变形处理,所以数字4看起来是波形的,其实不用对数字4做这么夸张的扭曲,只要轻微的变形就好,我做成这样是为了让大家看的更清楚。实际操作的时候,我们通常对字符做更轻微的变形处理。因为这几个4看起来有点扭曲。所以,数据扩增可作为正则化方法使用,实际功能上也与正则化相似。

二.early stopping

还有另外一种常用的方法叫作early stopping,运行梯度下降时,我们可以绘制训练误差,或只绘制代价函数JJ 的优化过程,在训练集上用0-1记录分类误差次数。呈单调下降趋势,如图。

因为在训练过程中,我们希望训练误差,代价函数 JJ 都在下降,通过early stopping,我们不但可以绘制上面这些内容,还可以绘制验证集误差,它可以是验证集上的分类误差,或验证集上的代价函数,逻辑损失和对数损失等,你会发现,验证集误差通常会先呈下降趋势,然后在某个节点处开始上升,early stopping的作用是,你会说,神经网络已经在这个迭代过程中表现得很好了,我们在此停止训练吧,得到验证集误差,它是怎么发挥作用的?

当你还未在神经网络上运行太多迭代过程的时候,参数 ww 接近0,因为随机初始化 ww 值时,它的值可能都是较小的随机值,所以在你长期训练神经网络之前 ww 依然很小,在迭代过程和训练过程中 ww 的值会变得越来越大,比如在这儿,神经网络中参数 ww 的值已经非常大了,所以early stopping要做就是在中间点停止迭代过程,我们得到一个 ww 值中等大小的弗罗贝尼乌斯范数,与 L2L2 正则化相似,选择参数 ww 范数较小的神经网络,但愿你的神经网络过度拟合不严重。

术语early stopping代表提早停止训练神经网络,训练神经网络时,我有时会用到early stopping,但是它也有一个缺点,我们来了解一下。

我认为机器学习过程包括几个步骤,其中一步是选择一个算法来优化代价函数 JJ,我们有很多种工具来解决这个问题,如梯度下降,后面我会介绍其它算法,例如MomentumRMSpropAdam等等,但是优化代价函数 JJ 之后,我也不想发生过拟合,也有一些工具可以解决该问题,比如正则化,扩增数据等等。

在机器学习中,超级参数激增,选出可行的算法也变得越来越复杂。我发现,如果我们用一组工具优化代价函数 JJ,机器学习就会变得更简单,在重点优化代价函数 JJ 时,你只需要留意 wwbbJ(w,b)J(w,b) 的值越小越好,你只需要想办法减小这个值,其它的不用关注。然后,预防过拟合还有其他任务,换句话说就是减少方差,这一步我们用另外一套工具来实现,这个原理有时被称为“正交化”。思路就是在一个时间做一个任务,后面课上我会具体介绍正交化,如果你还不了解这个概念,不用担心。

但对我来说early stopping的主要缺点就是你不能独立地处理这两个问题,因为提早停止梯度下降,也就是停止了优化代价函数 JJ,因为现在你不再尝试降低代价函数 JJ,所以代价函数 JJ 的值可能不够小,同时你又希望不出现过拟合,你没有采取不同的方式来解决这两个问题,而是用一种方法同时解决两个问题,这样做的结果是我要考虑的东西变得更复杂。

如果不用early stopping,另一种方法就是 L2L2 正则化,训练神经网络的时间就可能很长。我发现,这导致超级参数搜索空间更容易分解,也更容易搜索,但是缺点在于,你必须尝试很多正则化参数 λ\lambda 的值,这也导致搜索大量 λ\lambda 值的计算代价太高。

Early stopping的优点是,只运行一次梯度下降,你可以找出 ww 的较小值,中间值和较大值,而无需尝试 L2L2 正则化超级参数λ\lambda的很多值。

如果你还不能完全理解这个概念,没关系,下节课我们会详细讲解正交化,这样会更好理解。

虽然 L2L2 正则化有缺点,可还是有很多人愿意用它。吴恩达老师个人更倾向于使用 L2L2 正则化,尝试许多不同的 λ\lambda 值,假设你可以负担大量计算的代价。而使用early stopping也能得到相似结果,还不用尝试这么多λ\lambda值。

这节课我们讲了如何使用数据扩增,以及如何使用early stopping降低神经网络中的方差或预防过拟合。

 

归一化输入(Normalizing inputs)

训练神经网络,其中一个加速训练的方法就是归一化输入。假设一个训练集有两个特征,输入特征为2维,归一化需要两个步骤:

  1. 零均值

  2. 归一化方差;

我们希望无论是训练集还是测试集都是通过相同的 μμσ2σ^2 定义的数据转换,这两个是由训练集得出来的。

第一步是零均值化,μ=1mi=1mx(i)\mu = \frac{1}{m}\sum_{i =1}^{m}x^{(i)},它是一个向量,xx 等于每个训练数据 xx 减去 μ\mu,意思是移动训练集,直到它完成零均值化。

第二步是归一化方差,注意特征 x1x_{1} 的方差比特征 x2x_{2} 的方差要大得多,我们要做的是给 σ\sigma 赋值,σ2=1mi=1m(x(i))2\sigma^{2}= \frac{1}{m}\sum_{i =1}^{m}({x^{(i)})^2},这是节点 yy 的平方,σ2\sigma^{2} 是一个向量,它的每个特征都有方差,注意,我们已经完成零值均化,(x(i))2({x^{(i)})}^{2} 元素 y2y^{2} 就是方差,我们把所有数据除以向量 σ\sigma,最后变成上图形式。

公式错误,应该是 x/=σx/=\sigma

x1x_{1}x2x_{2} 的方差都等于1。提示一下,如果你用它来调整训练数据,那么用相同的 μμσ2\sigma^{2} 来归一化测试集。尤其是,你不希望训练集和测试集的归一化有所不同,不论 μμ 的值是什么,也不论 σ2\sigma^{2} 的值是什么,这两个公式中都会用到它们。所以你要用同样的方法调整测试集,而不是在训练集和测试集上分别预估 μμσ2\sigma^{2}。因为我们希望不论是训练数据还是测试数据,都是通过相同 μμσ2\sigma^{2} 定义的相同数据转换,其中 μμσ2\sigma^{2} 是由训练集数据计算得来的。

我们为什么要这么做呢?为什么我们想要归一化输入特征,回想一下右上角所定义的代价函数。

J(w,b)=1mi=1mL(y^(i),y(i))J(w,b)=\frac{1}{m}\sum\limits_{i=1}^{m}L({\hat y}^{(i)},{y}^{(i)})

如果你使用非归一化的输入特征,代价函数会像这样:

这是一个非常细长狭窄的代价函数,你要找的最小值应该在这里。但如果特征值在不同范围,假如x1x_{1}取值范围从1到1000,特征x2x_{2}的取值范围从0到1,结果是参数w1w_{1}w2w_{2}值的范围或比率将会非常不同,这些数据轴应该是w1w_{1}w2w_{2},但直观理解,我标记为wwbb,代价函数就有点像狭长的碗一样,如果你能画出该函数的部分轮廓,它会是这样一个狭长的函数。

然而如果你归一化特征,代价函数平均起来看更对称,如果你在上图这样的代价函数上运行梯度下降法,你必须使用一个非常小的学习率。因为如果是在这个位置,梯度下降法可能需要多次迭代过程,直到最后找到最小值。但如果函数是一个更圆的球形轮廓,那么不论从哪个位置开始,梯度下降法都能够更直接地找到最小值,你可以在梯度下降法中使用较大步长,而不需要像在左图中那样反复执行。

当然,实际上 ww 是一个高维向量,因此用二维绘制 ww 并不能正确地传达并直观理解,但总地直观理解是代价函数会更圆一些,而且更容易优化,前提是特征都在相似范围内,而不是从1到1000,0到1的范围,而是在-1到1范围内或相似偏差,这使得代价函数 JJ 优化起来更简单快速。

实际上如果假设特征x1x_{1}范围在0-1之间,x2x_{2}的范围在-1到1之间,x3x_{3}范围在1-2之间,它们是相似范围,所以会表现得很好。

当它们在非常不同的取值范围内,如其中一个从1到1000,另一个从0到1,这对优化算法非常不利。但是仅将它们设置为均化零值,假设方差为1,就像上一张幻灯片里设定的那样,确保所有特征都在相似范围内,通常可以帮助学习算法运行得更快。

所以如果输入特征处于不同范围内,可能有些特征值从0到1,有些从1到1000,那么归一化特征值就非常重要了。如果特征值处于相似范围内,那么归一化就不是很重要了。执行这类归一化并不会产生什么危害,我通常会做归一化处理,虽然我不确定它能否提高训练或算法速度。

这就是归一化特征输入,下节课我们将继续讨论提升神经网络训练速度的方法。

 

梯度消失/梯度爆炸(Vanishing / Exploding gradients)

训练神经网络,尤其是深度神经所面临的一个问题就是梯度消失或梯度爆炸,也就是你训练神经网络的时候,导数或坡度有时会变得非常大,或者非常小,甚至于以指数方式变小,这加大了训练的难度。

这节课,你将会了解梯度消失或梯度爆炸的真正含义,以及如何更明智地选择随机初始化权重,从而避免这个问题。

假设你正在训练这样一个极深的神经网络,这个神经网络会有参数 W[1]W^{[1]}W[2]W^{[2]}W[3]W^{[3]} 等等,直到 W[l]W^{[l]},为了简单起见,假设我们使用激活函数 g(z)=zg(z)=z,也就是线性激活函数,我们忽略 bb,假设 b[l]=0b^{[l]}=0,如果那样的话,输出 y=W[l]W[L1]W[L2]W[3]W[2]W[1]xy=W^{[l]}W^{[L -1]}W^{[L - 2]}\ldots W^{[3]}W^{[2]}W^{[1]}x

假设每个权重矩阵W[l]=[1.5001.5]W^{[l]} = \begin{bmatrix} 1.5 & 0 \\0 & 1.5 \\\end{bmatrix},从技术上来讲,最后一项有不同维度,可能它就是余下的权重矩阵,y=W[1][1.5001.5](L1)xy= W^{[1]}\begin{bmatrix} 1.5 & 0 \\ 0 & 1.5 \\\end{bmatrix}^{(L -1)}x,因为我们假设所有矩阵都等于它,它是1.5倍的单位矩阵,最后的计算结果就是 y^\hat{y}y^\hat{y} 也就是等于1.5(L1)x{1.5}^{(L-1)}x。如果对于一个深度神经网络来说 LL 值较大,那么 y^\hat{y} 的值也会非常大,实际上它呈指数级增长的,因此对于一个深度神经网络,yy 的值将爆炸式增长。

相反的,如果权重是0.5,W[l]=[0.5000.5]W^{[l]} = \begin{bmatrix} 0.5& 0 \\ 0 & 0.5 \\ \end{bmatrix},它比1小,这项也就变成了0.5L{0.5}^{L},矩阵 y=W[1][0.5000.5](L1)xy= W^{[1]}\begin{bmatrix} 0.5 & 0 \\ 0 & 0.5 \\\end{bmatrix}^{(L - 1)}x,再次忽略W[L]W^{[L]},因此每个矩阵都小于1,假设x1x_{1}x2x_{2}都是1,激活函数将变成12\frac{1}{2}12\frac{1}{2}14\frac{1}{4}14\frac{1}{4}18\frac{1}{8}18\frac{1}{8}等,直到最后一项变成12L \frac{1}{2^{L}\ },所以作为自定义函数,激活函数的值将以指数级下降,它是与网络层数数量 LL 相关的函数,在深度网络中,激活函数以指数级递减。

我希望你得到的直观理解是,权重WW只比1略大一点,或者说只是比单位矩阵大一点,深度神经网络的激活函数将爆炸式增长,如果WW比1略小一点,可能是[0.9000.9]\begin{bmatrix}0.9 & 0 \\ 0 & 0.9 \\ \end{bmatrix}

在深度神经网络中,激活函数将以指数级递减,虽然我只是讨论了激活函数以与 LL 相关的指数级数增长或下降,它也适用于与层数 LL 相关的导数或梯度函数,也是呈指数级增长或呈指数递减。

对于当前的神经网络,假设L=150L=150,在这样一个深度神经网络中,如果激活函数或梯度函数以与 LL 相关的指数增长或递减,它们的值将会变得极大或极小,从而导致训练难度上升,尤其是梯度指数小于 LL 时,梯度下降算法的步长会非常非常小,梯度下降算法将花费很长时间来学习。

总结一下,我们讲了深度神经网络是如何产生梯度消失或爆炸问题的,实际上,在很长一段时间内,它曾是训练深度神经网络的阻力,虽然有一个不能彻底解决此问题的解决方案,但是已在如何选择初始化权重问题上提供了很多帮助。

 

神经网络的权重初始化(Weight Initialization for Deep NetworksVanishing / Exploding gradients)

上节课,我们学习了深度神经网络如何产生梯度消失和梯度爆炸问题,最终针对该问题,我们想出了一个不完整的解决方案,虽然不能彻底解决问题,却很有用,有助于我们为神经网络更谨慎地选择随机初始化参数,为了更好地理解它,我们先举一个神经单元初始化的例子,然后再演变到整个深度网络。

我们来看看只有一个神经元的情况,然后推广到深度网络。

单个神经元可能有4个输入特征,从 x1x_{1}x4x_{4},经过 a=g(z)a=g(z) 处理,最终得到 y^\hat{y},稍后讲深度网络时,这些输入表示为 a[l]a^{[l]},暂时我们用 xx 表示。

z=w1x1+w2x2++wnxnz = w_{1}x_{1} + w_{2}x_{2} + \ldots +w_{n}x_{n}b=0b=0,暂时忽略 bb,为了预防 zz 值过大或过小,你可以看到 nn 越大,就希望 wiw_{i} 越小,因为 zzwixiw_{i}x_{i} 的和,如果你把很多此类项相加,希望每项值更小,最合理的方法就是设置wi=1nw_{i}=\frac{1}{n}nn 表示神经元的输入特征数量,实际上,你要做的就是设置某层权重矩阵w[l]=np.random.randn(shape)np.sqrt(1n[l1] )w^{[l]} = np.random.randn( \text{shape})*\text{np.}\text{sqrt}(\frac{1}{n^{[l-1]}\ })n[l1]n^{[l - 1]} 就是我喂给第 ll 层神经单元的数量(即第 l1l-1 层神经元数量)。

为什么会有 np.sqrt(1n[l1] )\text{np.}\text{sqrt}(\frac{1}{n^{[l-1]}\ })

这种初始化方法被称为Xavier初始化(也称为Glorot初始化)。通过使用np.sqrt(1n[l1] )\text{np.}\text{sqrt}(\frac{1}{n^{[l-1]}\ })作为权重的标准差,可以将权重初始化在一个较合理的范围内。这种初始化方法的基本思想是,通过将权重的方差与前一层神经元的数量相关联,使得每个神经元的激活值的方差保持相对稳定

具体而言,np.sqrt(1n[l1] )\text{np.}\text{sqrt}(\frac{1}{n^{[l-1]}\ })用于对权重矩阵进行随机初始化,乘以np.random.randn(shape)\text{np.random.randn(shape)},其中shape\text{shape}是权重矩阵的形状。这样做的结果是,权重被初始化为接近零的随机值,且方差与前一层神经元数量的倒数成反比。

总结起来,权重初始化中的np.sqrt(1n[l1] )\text{np.}\text{sqrt}(\frac{1}{n^{[l-1]}\ })是为了控制权重的范围,避免梯度消失或梯度爆炸问题,并促进网络的有效训练。

如果你是用的是Relu激活函数,而不是 wi=1nw_{i}=\frac{1}{n}。方差设置为 2n\frac{2}{n},效果会更好。你常常发现,初始化时,尤其是使用Relu激活函数时,g[l](z)=Relu(z)g^{[l]}(z) =Relu(z),它取决于你对随机变量的熟悉程度,这是高斯随机变量(np.random.randn(shape)np.random.randn( \text{shape})),然后乘以它的平方根(np.sqrt(1n[l1] \text{np.}\text{sqrt}(\frac{1}{n^{[l-1]}\ }),也就是引用这个方差 2n\frac{2}{n} (指下图中的 Var(w:)=2nVar(w:)=\frac2n)。这里,我用的是 n[l1]n^{[l - 1]},因为本例中,逻辑回归的特征是不变的。但一般情况下 ll 层上的每个神经元都有 n[l1]n^{[l - 1]}个输入。如果激活函数的输入特征被零均值和标准方差化,方差是1,zz 也会调整到相似范围,这就没解决问题(梯度消失和爆炸问题)。但它确实降低了梯度消失和爆炸问题,因为它给权重矩阵 ww 设置了合理值,你也知道,它不能比1大很多,也不能比1小很多,所以梯度没有爆炸或消失过快。

我提到了其它变体函数,刚刚提到的函数是Relu激活函数,一篇由Herd等人撰写的论文曾介绍过。对于几个其它变体函数,如tanh激活函数,有篇论文提到,常量1比常量2的效率更高,对于tanh函数来说,它是 1n[l1] \sqrt{\frac{1}{n^{[l-1]}\ }},这里平方根的作用与这个公式作用相同 (np.sqrt(1n[l1] )\text{np.}\text{sqrt}(\frac{1}{n^{[l-1]}\ })),它适用于tanh激活函数,被称为Xavier初始化。Yoshua Bengio和他的同事还提出另一种方法,你可能在一些论文中看到过,它们使用的是公式2n[l1]+n[l] \sqrt{\frac{2}{n^{[l-1]} + n^{\left[l\right]}\ }}。其它理论已对此证明,但如果你想用Relu激活函数,也就是最常用的激活函数,我会用这个公式np.sqrt(2n[l1] )\text{np.}\text{sqrt}(\frac{2}{n^{[l-1]}\ }),如果使用tanh函数,可以用公式1n[l1] \sqrt{\frac{1}{n^{[l-1]}\ }},有些作者也会使用这个函数(指2n[l1]+n[l] \sqrt{\frac{2}{n^{[l-1]} + n^{\left[l\right]}\ }})。

实际上,我认为所有这些公式只是给你一个起点,它们给出初始化权重矩阵的方差的默认值,如果你想添加方差,方差参数则是另一个你需要调整的超级参数,可以给公式np.sqrt(2n[l1] )\text{np.}\text{sqrt}(\frac{2}{n^{[l-1]}\ })添加一个乘数参数,调优作为超级参数激增一份子的乘子参数。有时调优该超级参数效果一般,这并不是我想调优的首要超级参数,但我发现调优过程中产生的问题,虽然调优该参数能起到一定作用,但考虑到相比调优其它超级参数的重要性,我通常把它的优先级放得比较低。

希望你现在对梯度消失或爆炸问题以及如何为权重初始化合理值已经有了一个直观认识,希望你设置的权重矩阵既不会增长过快,也不会太快下降到0,从而训练出一个权重或梯度不会增长或消失过快的深度网络。我们在训练深度网络时,这也是一个加快训练速度的技巧。

 

梯度的数值逼近(Numerical approximation of gradients)

在实施backprop时,有一个测试叫做梯度检验,它的作用是确保backprop正确实施。因为有时候,你虽然写下了这些方程式,却不能100%确定,执行backprop的所有细节都是正确的。为了逐渐实现梯度检验,我们首先说说如何计算梯度的数值逼近,下节课,我们将讨论如何在backprop中执行梯度检验,以确保backprop正确实施。

我们先画出函数 ff,标记为 f(θ)f\left( \theta \right)f(θ)=θ3f\left( \theta \right)=\theta^{3},先看一下 θ\theta 的值,假设 θ=1\theta=1,不增大 θ\theta 的值,而是在 θ\theta 右侧,设置一个θ+ε\theta +\varepsilon,在 θ\theta 左侧,设置 θε\theta -\varepsilon。比如 θ=1\theta=1θ+ε=1.01,θε=0.99\theta +\varepsilon =1.01,\theta -\varepsilon =0.99,,跟以前一样,ε\varepsilon 的值为0.01,看下顶部这个绿色填充的小三角形,计算高和宽的比值,就是更准确的梯度预估(指 (θ,θ+ε)(\theta,\theta+\varepsilon),选择 ff 函数在 θε\theta -\varepsilon 上的这个点,用这个较大三角形的高比上宽,那么较大三角形的高宽比值更接近于 θ\theta 的导数,把右上角的三角形下移,好像有了两个三角形,右上角有一个,左下角有一个,我们通过这个绿色大三角形同时考虑了这两个小三角形。所以我们得到的不是一个单边公差而是一个双边公差。

我们写一下数据算式,图中绿色三角形上边的点的值是 f(θ+ε)f( \theta +\varepsilon),下边的点是 f(θε)f( \theta-\varepsilon),这个三角形的高度是 f(θ+ε)f(θε)f( \theta +\varepsilon)-f(\theta -\varepsilon),这两个宽度都是 ε,所以三角形的宽度是 2ε2\varepsilon,高宽比值为f(θ+ε)(θε)2ε\frac{f(\theta + \varepsilon ) - (\theta -\varepsilon)}{2\varepsilon},它的期望值接近 g(θ)g( \theta)f(θ)=θ3f( \theta)=\theta^{3} 传入参数值,f(θ+ε)f(θε)2ε=(1.01)3(0.99)32×0.01\frac {f\left( \theta + \varepsilon \right) - f(\theta -\varepsilon)}{2\varepsilon} = \frac{(1.01)^{3} - (0.99)^3}{2 \times0.01},结果应该是3.0001,而前面一张幻灯片上面是,当 θ=1\theta =1 时,g(θ)=3θ2=3g( \theta)=3\theta^{2} =3,所以这两个 g(θ)g(\theta) 值非常接近,逼近误差为0.0001,前一张幻灯片,我们只考虑了单边公差,即从 θ\thetaθ+ε\theta +\varepsilon 之间的误差,g(θ)g( \theta) 的值为3.0301,逼近误差是0.03,不是0.0001,所以使用双边误差的方法更逼近导数,其结果接近于3,现在我们更加确信,g(θ)g( \theta) 可能是 ff 导数的正确实现,在梯度检验和反向传播中使用该方法时,最终,它与运行两次单边公差的速度一样,实际上,我认为这种方法还是非常值得使用的,因为它的结果更准确。

对于一个非零的 ε\varepsilon,它的逼近误差可以写成 O(ε2)O(\varepsilon^{2})εε 值非常小,如果 ε=0.01\varepsilon=0.01ε2=0.0001\varepsilon^{2}=0.0001,大写符号 OO 的含义是指逼近误差其实是一些常量乘以 ε2\varepsilon^{2},但它的确是很准确的逼近误差,所以大写 OO 的常量有时是1。然而,如果我们用另外一个公式 f(θ+ε)f(θ)ε\frac{f(\theta + \varepsilon ) - f(\theta)}{\varepsilon} 逼近误差就是 O(ε)O(\varepsilon),当 ε\varepsilon 小于1时,实际上 ε\varepsilonε2\varepsilon^{2} 大很多,所以这个公式近似值远没有双边误差的公式的准确,所以在执行梯度检验时,我们使用双边误差,即 f(θ+ε)f(θε)2ε\frac{f\left(\theta + \varepsilon \right) - f(\theta -\varepsilon)}{2\varepsilon},而不使用单边公差,因为它不够准确。

重点是要记住,双边误差公式的结果更准确,下节课我们做梯度检验时就会用到这个方法。

今天我们讲了如何使用双边误差来判断别人给你的函数 g(θ)g( \theta),是否正确实现了函数 ff 的偏导,现在我们可以使用这个方法来检验反向传播是否得以正确实施,如果不正确,它可能有bug需要你来解决。

 

梯度检验(Gradient checking)

梯度检验帮我们节省了很多时间,也多次帮我发现backprop实施过程中的bug,接下来,我们看看如何利用它来调试或检验backprop的实施是否正确。

假设你的网络中含有下列参数,W[1]W^{[1]}b[1]b^{[1]}……W[l]W^{[l]}b[l]b^{[l]},为了执行梯度检验,首先要做的就是,把所有参数转换成一个巨大的向量数据,你要做的就是把矩阵 WW 转换成一个向量,把所有 WW 矩阵转换成向量之后,做连接运算,得到一个巨型向量 θ\theta,该向量表示为参数 θ\theta,代价函数 JJ 是所有 WWbb 的函数,现在你得到了一个 θ\theta 的代价函数 JJ(即 J(θ)J(\theta))。接着,你得到与 WWbb 顺序相同的数据,你同样可以把 dW[1]dW^{[1]}db[1]{db}^{[1]}……dW[l]{dW}^{[l]}db[l]{db}^{[l]} 转换成一个新的向量,用它们来初始化大向量 dθd\theta,它与 θ\theta 具有相同维度。

将所有的参数 W[1],b[1],,W[l],b[l]W^{[1]}, b^{[1]}, \ldots, W^{[l]}, b^{[l]} 转换成一个巨大的向量 θ\theta 的原因在于,通过将所有参数连接成一个向量,我们可以更方便地对参数进行操作,同时也更容易进行梯度的比较。

具体来说,将所有参数连接成一个向量 θ\theta 可以帮助我们实现以下几点:

  1. 简化计算:将参数和梯度转换为向量后,可以使用向量的操作和线性代数运算来处理它们,从而简化了计算过程。这样可以避免对每个参数和梯度分别进行处理,而是一次性对整个向量进行操作。

  2. 方便梯度检验:将参数和梯度转换为向量后,可以利用向量的差分来进行梯度检验。梯度检验是通过比较数值梯度和解析梯度的差异来验证反向传播的正确性。使用向量形式的参数和梯度可以更方便地计算它们之间的差异。

  3. 统一参数更新:在优化算法中,通常使用梯度下降或其变种来更新参数。将所有参数和梯度转换为向量后,可以对它们进行一次性的更新,而不需要逐个参数进行更新。这样可以提高计算效率。

因此,使用一个巨大的向量 θ\theta 可以帮助简化梯度检验的实现过程,并确保我们可以有效地验证反向传播算法的正确性。

同样的,把 dW[1]dW^{[1]} 转换成矩阵,db[1]db^{[1]} 已经是一个向量了,直到把 dW[l]{dW}^{[l]} 转换成矩阵,这样所有的 dWdW 都已经是矩阵,注意 dW[1]dW^{[1]}W[1]W^{[1]} 具有相同维度,db[1]db^{[1]}b[1]b^{[1]} 具有相同维度。经过相同的转换和连接运算操作之后,你可以把所有导数转换成一个大向量 dθd\theta,它与 θ\theta 具有相同维度,现在的问题是 dθd\theta 和代价函数 JJ 的梯度或坡度有什么关系?

这就是实施梯度检验的过程,英语里通常简称为“grad check”,首先,我们要清楚 JJ 是超参数 θ\theta 的一个函数,你也可以将函数 JJ 展开为 J(θ1,θ2,θ3,)J(\theta_{1},\theta_{2},\theta_{3},\ldots\ldots),不论超级参数向量 θ\theta 的维度是多少,为了实施梯度检验,你要做的就是循环执行,从而对每个 ii 也就是对每个 θ\theta 组成元素计算 dθapprox [i]d\theta_{\text{approx}\ }[i] 的值,我使用双边误差,也就是

dθapprox [i]=J(θ1,θ2,θi+ε,)J(θ1,θ2,θiε,)2εd\theta_{\text{approx}\ }\left[i \right] = \frac{J\left( \theta_{1},\theta_{2},\ldots\theta_{i} + \varepsilon,\ldots \right) - J\left( \theta_{1},\theta_{2},\ldots\theta_{i} - \varepsilon,\ldots \right)}{2\varepsilon}

只对 θi\theta_{i} 增加 ε\varepsilon,其它项保持不变,因为我们使用的是双边误差,对另一边做同样的操作,只不过是减去 ε\varepsilonθ\theta 其它项全都保持不变。

从上节课中我们了解到这个值(dθapprox [i]d\theta_{\text{approx}\ }\left[i \right])应该逼近 dθ[i]d\theta\left[i \right]=Jθi \frac{\partial J}{\partial\theta_{i}\ }dθ[i]d\theta\left[i \right]是代价函数的偏导数,然后你需要对 ii 的每个值都执行这个运算,最后得到两个向量,得到 dθd\theta 的逼近值 dθapprox d\theta_{\text{approx}\ },它与 dθd\theta 具有相同维度,它们两个与 θ\theta 具有相同维度,你要做的就是验证这些向量是否彼此接近。

具体来说,如何定义两个向量是否真的接近彼此?我一般做下列运算,计算这两个向量的距离,dθapprox [i]dθ[i]d\theta_{\text{approx}\ }\left[i \right] - d\theta[i]的欧几里得范数,注意这里(dθapprox dθ2{||d\theta_{\text{approx}\ } -d\theta||}_{2})没有平方,它是误差平方之和,然后求平方根,得到欧式距离,然后用向量长度归一化(除以分母),使用向量长度的欧几里得范数。分母只是用于预防这些向量太小或太大,分母使得这个方程式变成比率,我们实际执行这个方程式,ε\varepsilon 可能为10710^{-7},使用这个取值范围内的 ε\varepsilon,如果你发现计算方程式得到的值为10710^{-7}或更小,这就很好,这就意味着导数逼近很有可能是正确的,它的值非常小。

如果它的值在10510^{-5}范围内,我就要小心了,也许这个值没问题,但我会再次检查这个向量的所有项,确保没有一项误差过大,可能这里有bug

如果左边这个方程式结果是10310^{-3},我就会担心是否存在bug,计算结果应该比10310^{- 3}小很多,如果比10310^{-3}大很多,我就会很担心,担心是否存在bug。这时应该仔细检查所有 θ\theta 项,看是否有一个具体的 ii 值,使得 dθapprox [i]d\theta_{\text{approx}\ }\left[i \right]dθ[i]d\theta[i]大不相同,并用它来追踪一些求导计算是否正确,经过一些调试,最终结果会是这种非常小的值(10710^{-7}),那么,你的实施可能是正确的。

在实施神经网络时,我经常需要执行forepropbackprop,然后我可能发现这个梯度检验有一个相对较大的值,我会怀疑存在bug,然后开始调试,调试,调试,调试一段时间后,我得到一个很小的梯度检验值,现在我可以很自信的说,神经网络实施是正确的。

现在你已经了解了梯度检验的工作原理,它帮助我在神经网络实施中发现了很多bug,希望它对你也有所帮助。

 

梯度检验应用的注意事项(Gradient Checking Implementation Notes)

这节课,分享一些关于如何在神经网络实施梯度检验的实用技巧和注意事项。

首先,不要在训练中使用梯度检验,它只用于调试。我的意思是,计算所有 ii 值的dθapprox [i]d\theta_{\text{approx}\ }\left[i\right]是一个非常漫长的计算过程,为了实施梯度下降,你必须使用 WWbb backprop来计算 dθd\theta,并使用backprop来计算导数,只要调试的时候,你才会计算它,来确认数值是否接近 dθd\theta。完成后,你会关闭梯度检验,梯度检验的每一个迭代过程都不执行它,因为它太慢了。

第二点,如果算法的梯度检验失败,要检查所有项,检查每一项,并试着找出bug,也就是说,如果 dθapprox [i]d\theta_{\text{approx}\ }\left[i\right]dθ[i]dθ[i] 的值相差很大,我们要做的就是查找不同的 ii 值,看看是哪个导致 dθapprox [i]d\theta_{\text{approx}\ }\left[i\right]dθ[i]d\theta\left[i\right] 的值相差这么多。举个例子,如果你发现,相对某些层或某层的 θ\thetadθd\theta 的值相差很大,但是 dw[l]\text{dw}^{[l]} 的各项非常接近,注意 θ\theta 的各项与 bbww 的各项都是一一对应的,这时,你可能会发现,在计算参数 bb 的导数 dbdb 的过程中存在bug。反过来也是一样,如果你发现它们的值相差很大,dθapprox [i]d\theta_{\text{approx}\ }\left[i\right]的值与dθ[i]d\theta\left[i\right]的值相差很大,你会发现所有这些项目都来自于 dwdw 或某层的 dwdw,可能帮你定位bug的位置,虽然未必能够帮你准确定位bug的位置,但它可以帮助你估测需要在哪些地方追踪bug

第三点,在实施梯度检验时,如果使用正则化,请注意正则项。如果代价函数J(θ)=1mL(y^(i),y(i))+λ2mW[l]2J(\theta) = \frac{1}{m}\sum_{}^{}{L(\hat y^{(i)},y^{(i)})} + \frac{\lambda}{2m}\sum_{}^{}{||W^{[l]}||}^{2},这就是代价函数 JJ 的定义,dθd\theta 等于与 θ\theta 相关的 JJ 函数的梯度,包括这个正则项,记住一定要包括这个正则项。

第四点,梯度检验不能与dropout同时使用,因为每次迭代过程中,dropout会随机消除隐藏层单元的不同子集,难以计算dropout在梯度下降上的代价函数 JJ。因此dropout可作为优化代价函数 JJ 的一种方法,但是代价函数 JJ 被定义为对所有指数极大的节点子集求和。而在任何迭代过程中,这些节点都有可能被消除,所以很难计算代价函数 JJ。你只是对成本函数做抽样,用dropout,每次随机消除不同的子集,所以很难用梯度检验来双重检验dropout的计算,所以我一般不同时使用梯度检验和dropout。如果你想这样做,可以把dropout中的keepprob设置为1.0,然后打开dropout,并寄希望于dropout的实施是正确的,你还可以做点别的,比如修改节点丢失模式确定梯度检验是正确的。实际上,我一般不这么做,我建议关闭dropout,用梯度检验进行双重检查,在没有dropout的情况下,你的算法至少是正确的,然后打开dropout

代价函数(也称为损失函数)在机器学习中起着关键作用,它用于衡量模型预测值与真实标签之间的差异。让我们探讨一下为什么代价函数 JJ 被定义为对所有指数极大的节点子集求和。

  1. 代价函数的目的

    • 假设我们有训练样本 (x,y)(x,y) ,其中 xx 是输入特征,yy 是对应的真实标签。
    • 我们的模型通过参数 θ\theta 预测输出值 h(θ)h(\theta)
    • 代价函数 J(θ)J(\theta) 的目标是衡量预测值 h(θ)h(\theta) 与真实标签 yy 之间的差异,以便优化模型参数 θ\theta
  2. 代价函数的形式

    • 代价函数可以有不同的形式,具体取决于问题类型和模型。
    • 常见的代价函数包括均方误差(用于线性回归)和交叉熵(用于逻辑回归和神经网络)等。
    • 例如,在逻辑回归中,我们通常使用交叉熵作为代价函数。
  3. 交叉熵的定义

    • 对于二分类问题,交叉熵的定义如下:

      J(θ)=1mi=1m[y(i)log(h(θ))+(1y(i))log(1h(θ))]J(\theta) = -\frac{1}{m} \sum_{i=1}^{m} \left[ y^{(i)} \log(h(\theta)) + (1 - y^{(i)}) \log(1 - h(\theta)) \right]

    • 其中,mm 是训练样本数量,y(i)y^{(i)} 是第 ii 个样本的真实标签,h(θ)h(\theta) 是预测值。

  4. 关于指数极大的节点子集求和

    • 代价函数中的求和项涉及所有训练样本。
    • 对于每个样本,我们计算预测值 h(θ)h(\theta) 与真实标签 yy 之间的差异。
    • 求和的目的是将所有样本的差异累加起来,以得到总体的代价函数 J(θ)J(\theta)
    • 这里的“指数极大的节点子集”指的是所有训练样本。

总之,代价函数的定义是为了衡量模型的预测效果,并通过优化参数 θ\theta 来最小化代价函数,使模型更好地拟合训练样本。

最后一点,也是比较微妙的一点,现实中几乎不会出现这种情况。当 wwbb 接近0时,梯度下降的实施是正确的,在随机初始化过程中……,但是在运行梯度下降时,wwbb 变得更大。可能只有在 wwbb 接近0时,backprop的实施才是正确的。但是当 WWbb 变大时,它会变得越来越不准确。你需要做一件事,我不经常这么做,就是在随机初始化过程中,运行梯度检验,然后再训练网络,wwbb 会有一段时间远离0,如果随机初始化值比较小,反复训练网络之后,再重新运行梯度检验。


这就是梯度检验,恭喜大家,这是本周最后一课了。回顾这一周,我们讲了如何配置训练集,验证集和测试集,如何分析偏差和方差,如何处理高偏差或高方差以及高偏差和高方差并存的问题,如何在神经网络中应用不同形式的正则化,如L2L2正则化和dropout,还有加快神经网络训练速度的技巧,最后是梯度检验。这一周我们学习了很多内容,你可以在本周编程作业中多多练习这些概念。祝你好运,期待下周再见。