第二章 反向传播算法如何工作的?

优质
小牛编辑
139浏览
2023-12-01

在上一章,我们看到了神经网络如何使用梯度下降算法来学习他们自身的权重和偏差。但是,这里还留下了一个问题:我们并没有讨论如何计算代价函数的梯度。这是很大的缺失!在本章,我们会解释计算这些梯度的快速算法,也就是反向传播

反向传播算法最初在 1970 年代被发现,但是这个算法的重要性直到 David RumelhartGeoffrey HintonRonald Williams1986年的论文 中才被真正认可。这篇论文描述了对一些神经网络反向传播要比传统的方法更快,这使得使用神经网络来解决之前无法完成的问题变得可行。现在,反向传播算法已经是神经网络学习的重要组成部分了。

本章在全书的范围内要比其他章节包含更多的数学内容。如果你不是对数学特别感兴趣,那么可以跳过本章,将反向传播当成一个黑盒,忽略其中的细节。那么为何要研究这些细节呢?

答案当然是理解。反向传播的核心是对代价函数 $$C$$ 关于 $$w$$ (或者 $$b$$)的偏导数 $$\partial C/\partial w$$ 的计算表示。该表示告诉我们在权重和偏差发生改变时,代价函数变化的快慢。尽管表达式会有点复杂,不过里面也包含一种美感,就是每个元素其实是拥有一种自然的直觉上的解释。所以反向传播不仅仅是一种学习的快速算法。实际上它还告诉我们一些细节的关于权重和偏差的改变影响整个网络行为方面的洞察。因此,这也是学习反向传播细节的重要价值所在。

如上面所说,如果你想要粗览本章,或者直接跳到下一章,都是可以的。剩下的内容即使你是把反向传播看做黑盒也是可以掌握的。当然,后面章节中也会有部分内容涉及本章的结论,所以会常常给出本章的参考。不过对这些知识点,就算你对推导的细节不太清楚你还是应该要理解主要的结论的。

热身:神经网络中使用矩阵快速计算输出的观点

我们首先给出网络中权重的清晰定义。我们使用 $$w_{jk}l$$ 表示从 $$(l-1){th}$$ 层的 $$k{th}$$ 个神经元到 $$(l){th}$$ 层的 $$j^{th}$$ 个神经元的链接上的权重。例如,下图给出了第二隐藏层的第四个神经元到第三隐藏层的第二个神经元的链接上的权重:

这样的表示粗看比较奇怪,需要花一点时间消化。但是,后面你会发现这样的表示会比较方便也很自然。奇怪的一点其实是下标 $$j$$ 和 $$k$$ 的顺序。你可能觉得反过来更加合理。但我接下来会告诉你为什么要这样做。

我们对网络偏差和激活值也会使用类似的表示。显式地,我们使用 $$b_Jl$$ 表示在 $$l{th}$$ 层 $$j{th}$$ 个神经元的偏差,使用 $$a_jl$$ 表示 $$l{th}$$ 层 $$j{th}$$ 个神经元的激活值。下面的图清楚地解释了这样表示的含义:

有了这些表示, $$l{th}$$ 层的 $$j{th}$$ 个神经元的激活值 $$a_jl$$ 就和 $$l{th}$$ 层关联起来了(对比公式(4) 和上一章的讨论)

其中求和是在 $$(l-1){th}$$ 层的所有神经元上进行的。为了用矩阵的形式重写这个表达式,我们对每一层 $$l$$ 都定义一个权重矩阵 $$wl$$,在 $$j{th}$$ 行第$$k{th}$$ 列的元素是 $$w_{jk}l$$。类似的,对每一层 $$l$$,定义一个偏差向量,$$bl$$。你已经猜到这些如何工作了——偏差向量的每个元素其实就是前面给出的 $$b_jl$$,每个元素对应于 $$l{th}$$ 层的每个神经元。最后,我们定义激活向量 $$al$$,其元素是那些激活值 $$a_jl$$。

最后我们需要引入向量化函数(如 $$\sigma$$)来按照矩阵形式重写公式(23) 。在上一章,我们其实已经碰到向量化了,其含义就是作用函数(如 $$\sigma$$)到向量 $$v$$ 中的每个元素。我们使用 $$\sigma(v)$$ 表示这种按元素进行的函数作用。所以,$$\sigma(v)$$ 的每个元素其实满足 $$\sigma(v)_j = \sigma(v_j)$$。给个例子,如果我们的作用函数是 $$f(x) = x^2$$,那么向量化的 $$f$$ 的函数作用就起到下面的效果:

也就是说,向量化的 $$f$$ 仅仅是对向量的每个元素进行了平方运算。

了解了这些表示,方程(23)就可以写成下面的这种美妙而简洁的向量形式了:

这个表达式给出了一种更加全局的思考每层的激活值和前一层的关联方式:我们仅仅用权重矩阵作用在激活值上,然后加上一个偏差向量,最后作用 $$\sigma$$ 函数。

其实,这就是让我们使用之前的矩阵下标 $$w_{jk}^l$$ 表示的初因。如果我们使用 $$j$$ 来索引输入神经元,$$k$$ 索引输出神经元,那么在方程(25)中我们需要将这里的矩阵换做其转置。这只是一个小小的困惑的改变,这会使得我们无法自然地讲出(思考)“应用权重矩阵到激活值上”这样的简单的表达。

这种全局的观点相比神经元层面的观点常常更加简明(没有更多的索引下标了!)其实可以看做是在保留清晰认识的前提下逃离下标困境的方法。在实践中,表达式同样很有用,因为大多数矩阵库提供了实现矩阵乘法、向量加法和向量化的快速方法。实际上,上一章的代码其实已经隐式使用了使用这种表达式来计算网络行为。

在使用方程(25)计算 $$al$$ 时,我们计算了中间量 $$zl \equiv wla{l-1} + bl$$ 。这个量其实是非常有用的:我们称 $$zl$$ 为 $$l$$ 层的带权输入。在本章后面,我们会大量用到这个量。方程(25)有时候会写作 $$al = \sigma(zl)$$。同样要指出的是 $$z_l$$ 的每个元素是 $$z_jl = \sum_k w_{jk}l a_k{l-1} + b_jl$$,其实 $$z_j^l$$ 就是第 $$l$$ 层第 $$j$$ 个神经元的激活函数带权输入。

关于代价函数的两个假设

其中 $$n$$ 是训练样本的总数;求和是在所有的训练样本 $$x$$ 上进行的;$$y = y(x)$$ 是对应的目标输出;$$L$$ 表示网络的层数;$$aL = aL(x)$$ 是当输入是 $$x$$ 时的网络输出的激活值向量。

好了,为了应用反向传播,我们需要对代价函数做出什么样的前提假设呢?第一个假设就是代价函数可以被写成一个 在每个训练样本 $$x$$ 上的代价函数 $$C_x$$ 的均值 $$C=\frac{1}{n} \sum_x C_x$$。这是关于二次代价函数的例子,其中对每个独立的训练样本其代价是 $$C_x = \frac{1}{2} ||y-aL||2$$。这个假设对书中提到的其他任何一个代价函数也都是必须满足的。

需要这个假设的原因是反向传播实际上是对一个独立的训练样本计算了 $$\partial C_x/\partial w$$ 和 $$\partial C_x/\partial b$$。然后我们通过在所有训练样本上进行平均化获得 $$\partial C/\partial w$$ 和 $$\partial C/\partial b$$。实际上,有了这个假设,我们会认为训练样本 $$x$$ 已经被固定住了,丢掉了其下标,将代价函数 $$C_x$$ 看做 $$C$$。最终我们会把下标加上,现在为了简化表示其实没有这个必要。

第二个假设就是代价可以写成神经网络输出的函数:

例如,二次代价函数满足这个要求,因为对于一个单独的训练样本 $$x$$ 其二次代价函数可以写作:

这是输出的激活值的函数。当然,这个代价函数同样还依赖于目标输出 $$y$$。记住,输入的训练样本 $$x$$ 是固定的,所以输出同样是一个固定的参数。所以说,并不是可以随意改变权重和偏差的,也就是说,这不是神经网络学习的对象。所以,将 $$C$$ 看成仅有输出激活值 $$a^L$$ 的函数才是合理的,而 $$y$$ 仅仅是帮助定义函数的参数而已。

Hadamard 乘积

这种类型的按元素乘法有时候被称为 Hadamard 乘积或者 Schur 乘积。我们这里取前者。好的矩阵库通常会提供 Hadamard 乘积的快速实现,在实现反向传播的时候用起来很方便。

反向传播的四个基本方程

反向传播将给出计算误差 $$\delta_jl$$ 的流程,然后将其关联到计算 $$\partial C/\partial w_{jk}l$$ 和 $$\partial C/\partial b_j^l$$ 上。

为了理解误差是如何定义的,假设在神经网络上有一个恶魔:

这个小精灵在 $$l$$ 层的第 $$j{th}$$ 个神经元上。当输入进来时,精灵对神经元的操作进行搅局。他会增加很小的变化 $$\Delta z_jl$$ 在神经元的带权输入上,使得神经元输出由 $$\sigma(z_jl)$$ 变成 $$\sigma(z_jl + \Delta z_jl)$$。这个变化会向网络后面的层进行传播,最终导致整个代价函数产生 $$\frac{\partial C}{\partial z_jl} \Delta z_j^l$$ 的改变。

现在,这个精灵变好了,试着帮助你来优化代价函数,他们试着找到可以让代价更小的 $$\Delta z_jl$$。假设 $$\frac{\partial C}{\partial z_jl}$$ 有一个很大的值(或正或负)。那么这个精灵可以降低代价通过选择与 $$\frac{\partial C}{\partial z_jl}$$ 相反符号的 $$\Delta z_jl$$ 。相反,如果$$\frac{\partial C}{\partial z_jl}$$ 接近 $$0$$,那么精灵并不能通过扰动带权输入 $$z_jl$$ 来改变太多代价函数。在小精灵看来,这时候神经元已经很接近最优了。

这里需要注意的是,只有在 $$\Delta z_j^l$$ 很小的时候才能够满足。我们需要假设小精灵只能进行微小的调整。

所以这里有一种启发式的认识,$$\frac{\partial C}{\partial z_j^l}$$ 是神经元的误差的度量。

按照上面的描述,我们定义 $$l$$ 层的第 $$j{th}$$ 个神经元上的误差 $$\delta_jl$$ 为:

按照我们通常的惯例,我们使用 $$\deltal$$ 表示关联于 $$l$$ 层的误差向量。反向传播会提供给我们一种计算每层的 $$\deltal$$ 的方法,然后将这些误差和最终我们需要的量 $$\partial C/\partial w_{jk}l$$ 和 $$\partial C/\partial b_jl$$联系起来。

你可能会想知道为何精灵在改变带权输入 $$z_jl$$。肯定想象精灵改变输出激活 $$a_jl$$ 更加自然,然后就使用 $$\frac{\partial C}{\partial a_jl}$$ 作为度量误差的方法了。 实际上,如果你这样做的话,其实和下面要讨论的差不同。但是看起来,前面的方法会让反向传播在代数运算上变得比较复杂。所以我们坚持使用 $$\delta_jl = \partial C / \partial z_j^l$$ 作为误差的度量。

在分类问题中,误差有时候会用作分类的错误率。如果神经网络正确分类了 96.0% 的数字,那么其误差是 4.0%。很明显,这和我们上面提及的误差的差别非常大了。在实际应用中,区分这两种含义是非常容易的。

解决方案:反向传播基于四个基本方程。这些方程给我们一种计算误差和代价函数梯度的方法。我列出这四个方程。但是需要注意:你不需要一下子能够同时理解这些公式。因为过于庞大的期望可能会导致失望。实际上,反向传播方程内容很多,完全理解这些需要花费充分的时间和耐心,需要一步一步地深入理解。而好的消息是,这样的付出回报巨大。所以本节对这些内容的讨论仅仅是一个帮助你正确掌握这些公式的起步。

下面简要介绍我们的探讨这些公式的计划:首先给出这些公式的简短证明以解释他们的正确性;然后以伪代码的方式给出这些公式的算法形式,并展示这些伪代码如何转化成真实的可执行的 python 代码;在本章的最后,我们会发展处一个关于反向传播公式含义的直觉图景,以及人们如何能够从零开始发现这个规律。按照此法,我们会不断地提及这四个基本方程,随着你对这些方程理解的加深,他们会看起来更加舒服,甚至是美妙和自然的。

输出层误差的方程,$$\delta^L$$:每个元素定义如下:

这是一个非常自然的表达式。右式第一个项 $$\partial C/\partial a_jL$$ 表示代价随着 $$j{th}$$ 输出激活值的变化而变化的速度。假如 $$C$$ 不太依赖一个特定的输出神经元 $$j$$,那么$$\delta_jL$$ 就会很小,这也是我们想要的效果。右式第二项 $$\sigma'(z_jL)$$ 刻画了在 $$z_j^L$$ 处激活函数 $$\sigma$$ 变化的速度。

注意到在 BP1 中的每个部分都是很好计算的。特别地,我们在前向传播计算网络行为时已经计算过 $$z_jL$$,这仅仅需要一点点额外工作就可以计算 $$\sigma'(z_jL)$$。当然 $$\partial C/\partial a_jL$$ 依赖于代价函数的形式。然而,给定了代价函数,计算$$\partial C/\partial a_jL$$就没有什么大问题了。例如,如果我们使用二次函数,那么 $$C = \frac{1}{2} \sum_j(y_j-a_j)2$$,所以 $$\partial C/\partial a_jL = (a_j - y_j)$$,这其实很容易计算。

方程(BP1)对 $$\delta^L$$ 来说是个按部分构成的表达式。这是一个非常好的表达式,但不是我们期望的用矩阵表示的形式。但是,重写方程其实很简单,

这里 $$\nabla_a C$$ 被定义成一个向量,其元素师偏导数 $$\partial C/\partial a_jL$$。你可以将其看成 $$C$$ 关于输出激活值的改变速度。方程(BP1)和方程(BP1a)的等价也是显而易见的,所以现在开始,我们会交替地使用这两个方程。举个例子,在二次代价函数时,我们有 $$\nabla_a C = (aL - y)$$,所以(BP1)的整个矩阵形式就变成

如你所见,这个方程中的每个项都有一个很好的向量形式,所以也可以很方便地使用像 Numpy 这样的矩阵库进行计算了。

使用下一层的误差 $$\delta^{l+1}$$ 来表示当前层的误差 $$\delta_l$$:特别地,

其中 $$(w{l+1})T$$ 是 $$(l+1){th}$$ 权重矩阵 $$w{l+1}$$ 的转置。这其实可以很直觉地看做是后在 $$l{th}$$ 层的输出的误差的反向传播,给出了某种关于误差的度量方式。然后,我们进行 Hadamard 乘积运算 $$\odot \sigma'(zl)$$。这会让误差通过 $$l$$ 层的激活函数反向传递回来并给出在第 $$l$$ 层的带权输入的误差 $$\delta$$。

通过组合(BP1)和(BP2),我们可以计算任何层的误差了。首先使用(BP1)计算$$\deltal$$,然后应用方程(BP2)来计算$$\delta{L-1}$$,然后不断作用(BP2),一步一步地反向传播完整个网络。

代价函数关于网络中任意偏差的改变率:就是

这其实是,误差 $$\delta_jl$$ 和偏导数值 $$\partial C/\partial b_jl$$完全一致。这是很好的性质,因为(BP1)和(BP2)已经告诉我们如何计算 $$\delta_j^l$$。所以就可以将(BP3)简记为

其中 $$\delta$$ 和偏差 $$b$$ 都是针对同一个神经元。

代价函数关于任何一个权重的改变率:特别地,

这告诉我们如何计算偏导数 $$\partial C/\partial w_{jk}l$$,其中 $$\deltal$$ $$a^{l-1}$$ 这些量我们都已经知道如何计算了。方程也可以写成下面少下标的表示:

其中 $$a_{in}$$ 是输出给 $$w$$ 产生的神经元的输入和 $$\delta_{out}$$是来自 $$w$$ 的神经元输出的误差。放大看看权重 w,还有两个由这个链接相连的神经元,我们给出一幅图如下:

方程(32)的一个结论就是当激活值很小,梯度 $$\partial C/\partial w$$ 也会变得很小。这样,我们就说权重学习缓慢,表示在梯度下降的时候,这个权重不会改变太多。换言之,(BP4)的后果就是来自很低的激活值神经元的权重学习会非常缓慢。

这四个公式同样还有很多观察。让我们看看(BP1)中的项 $$\sigma'(z_k^l)$$。回忆一下上一章的 sigmoid 函数图像,当函数值接近 $$0$$ 或者 $$1$$ 的时候图像非常平。这就使得在这些位置的导数接近于 $$0$$.所以如果输出神经元处于或者低激活值或者高激活值时,最终层的权重学习缓慢。这样的情形,我们常常称输出神经元已经饱和了,并且,权重学习也会终止(或者学习非常缓慢)。类似的结果对于输出神经元的偏差也是成立的。

针对前面的层,我们也有类似的观点。特别地,注意在(BP2)中的项 $$\sigma'(zl)$$。这表示 $$\delta_jl$$ 很可能变小如果神经元已经接近饱和。这就导致任何输入进一个饱和的神经元的权重学习缓慢。

如果 $$(w{l+1})T \delta{l+1}$$ 拥有足够大的量能够补偿 $$\sigma'(z_kl)$$ 的话,这里的推导就不能成立了。但是我们上面是常见的情形。

总结一下,我们已经学习到权重学习缓慢如果输入神经元激活值很低,或者输出神经元已经饱和了(过高或者过低的激活值)。

这些观测其实也是不非常令人惊奇的。不过,他们帮助我们完善了关于神经网络学习的背后的思维模型。而且,我们可以将这种推断方式进行推广。四个基本方程也其实对任何的激活函数都是成立的(证明中也可以看到,其实推断本身不依赖于任何具体的代价函数)所以,我们可以使用这些方程来设计有特定属性的激活函数。我们这里给个例子,假设我们准备选择一个(non-sigmoid)的激活函数 $$\sigma$$ 使得 $$\sigma'$$ 总是正数。这会防止在原始的 sigmoid 神经元饱和时学习速度的下降的情况出现。在本书的后面,我们会见到这种类型的对激活函数的改变。时时回顾这四个方程可以帮助解释为何需要有这些尝试,以及尝试带来的影响。

问题

另一种反向传播方程的表示方式:我已经给出了使用了 Hadamard 乘积的反向传播的公式。如果你对这种特殊的乘积不熟悉,可能会有一些困惑。下面还有一种表示方式,那就是基于传统的矩阵乘法,某些读者可能会觉得很有启发。(1) 证明 (BP1) 可以写成

其中 $$\Sigma'(zL)$$ 是一个方阵,其对角线的元素是 $$\sigma'(z_jL)$$,其他的元素均是 $$0$$。注意,这个矩阵通过一般的矩阵乘法作用在 $$\nabla_a C$$ 上。(2) 证明(BP2) 可以写成

(3) 结合(1)和(2) 证明

对那些习惯于这种形式的矩阵乘法的读者,(BP1) (BP2) 应该更加容易理解。而我们坚持使用 Hadamard 乘积的原因在于其更快的数值实现。

四个基本方程的证明(可选)

我们现在证明这四个方程。所有这些都是多元微积分的链式法则的推论。如果你熟悉链式法则,那么我鼓励你在读之前自己证明一番。

练习

  • 证明方程 (BP3) 和 (BP4)

这样我们就完成了反向传播四个基本公式的证明。证明本身看起来复杂。但是实际上就是细心地应用链式法则。我们可以将反向传播看成是一种系统性地应用多元微积分中的链式法则来计算代价函数的梯度的方式。这些就是反向传播理论上的内容——剩下的是实现细节。

反向传播算法

  1. 输入 $$x$$:为输入层设置对应的激活值 $$a^l$$ 。
  2. 前向传播:对每个 $$l=2,3,...,L$$ 计算相应的 $$zl = wla{l-1} + bl$$ 和 $$al = \sigma(zl)$$
  3. 输出层误差 $$\delta^L$$:计算向量 $$\deltaL = \nabla_a C \odot \sigma'(zL)$$
  4. 反向误差传播:对每个 $$l=L-1, L-2,...,2$$,计算 $$\deltal = ((w{l+1})T\delta{l+1})\odot \sigma'(z^l)$$
  5. 输出:代价函数的梯度由 $$\frac{C}{w_{jk}l} = a_k{l-1}\delta_jj$$ 和 $$\frac{\partial C}{\partial b_jl} = \delta_j^l$$

看看这个算法,你可以看到为何它被称作反向传播。我们从最后一层开始向后计算误差向量 $$\delta^l$$。这看起来有点奇怪,为何要从后面开始。但是如果你认真思考反向传播的证明,这种反向移动其实是代价函数是网络输出的函数的后果。为了理解代价随前面层的权重和偏差变化的规律,我们需要重复作用链式法则,反向地获得需要的表达式。

练习

  • 使用单个修正的神经元的反向传播 假设我们改变一个前向传播网络中的单个神经元,使得那个神经元的输出是 $$f(\sum_j w_jx_j + b)$$,其中 $$f$$ 是和 sigmoid 函数不同的某一函数。我们如何调整反向传播算法?
  • 线性神经元上的反向传播 假设我们将非线性神经元替换为 $$\sigma(z) = z$$。重写反向传播算法。

正如我们上面所讲的,反向传播算法对一个训练样本计算代价函数的梯度,$$C=C_x$$。在实践中,通常将反向传播算法和诸如随机梯度下降这样的学习算法进行组合使用,我们会对许多训练样本计算对应的梯度。特别地,给定一个大小为 $$m$$ 的 minibatch,下面的算法应用一步梯度下降学习在这个 minibatch 上:

  1. 输入训练样本的集合
  2. 对每个训练样本 $$x$$:设置对应的输入激活 $$a^{x,1}$$,并执行下面的步骤:
  • 前向传播:对每个 $$l=2,3,...,L$$ 计算 $$z{x,l} = wla{x,l-1} + bl$$ 和 $$a{x,l} = \sigma(z{x,l})$$
  • 输出误差 $$\delta{x,L}$$:计算向量 $$\delta{x,L} = \nabla_a C_x \odot \sigma'(z^{x,L})$$
  • 反向传播误差:对每个 $$l=L-1, L-2, ..., 2$$ 计算 $$\delta{x,l} = ((w{l+1})T\delta{x,l+1})\odot \sigma'(z^{x,l})$$
  1. 梯度下降:对每个 $$l=L-1, L-2, ..., 2$$ 根据 $$wl \rightarrow wl - \frac{\eta}{m}\sum_x \delta{x,l}(a{x,l-1})T$$ 和 $$bl \rightarrow bl - \frac{\eta}{m}\sum_x \delta{x,l}$$ 更新权重和偏差

当然,在实践中实现随机梯度下降,我们还需要一个产生训练样本 minibatch 的循环,还有就是训练次数的循环。这里我们先省略了。

代码

class Network(object):
...
    def update_mini_batch(self, mini_batch, eta):
        """Update the network's weights and biases by applying
        gradient descent using backpropagation to a single mini batch.
        The "mini_batch" is a list of tuples "(x, y)", and "eta"
        is the learning rate."""
        nabla_b = [np.zeros(b.shape) for b in self.biases]
        nabla_w = [np.zeros(w.shape) for w in self.weights]
        for x, y in mini_batch:
            delta_nabla_b, delta_nabla_w = self.backprop(x, y)
            nabla_b = [nb+dnb for nb, dnb in zip(nabla_b, delta_nabla_b)]
            nabla_w = [nw+dnw for nw, dnw in zip(nabla_w, delta_nabla_w)]
        self.weights = [w-(eta/len(mini_batch))*nw 
                        for w, nw in zip(self.weights, nabla_w)]
        self.biases = [b-(eta/len(mini_batch))*nb 
                       for b, nb in zip(self.biases, nabla_b)]

主要工作其实是在 delta_nabla_b, delta_nabla_w = self.backprop(x, y) 这里完成的,调用了 backprop 方法计算出了偏导数,$$\partial C_x/\partial b_jl$$ 和 $$\partial C_x/\partial w_{jk}l$$。反向传播方法跟上一节的算法基本一致。这里只有个小小的差异——我们使用一个略微不同的方式来索引神经网络的层。这个改变其实是为了 Python 的特性——负值索引的使用能够让我们从列表的最后往前遍历,如 l[-3] 其实是列表中的倒数第三个元素。下面 backprop 的代码,使用了一些用来计算 $$\sigma$$、导数 $$\sigma'$$ 及代价函数的导数帮助函数。所以理解了这些,我们就完全可以掌握所有的代码了。如果某些东西让你困惑,你可能需要参考代码的原始描述

class Network(object):
...
   def backprop(self, x, y):
        """Return a tuple "(nabla_b, nabla_w)" representing the
        gradient for the cost function C_x.  "nabla_b" and
        "nabla_w" are layer-by-layer lists of numpy arrays, similar
        to "self.biases" and "self.weights"."""
        nabla_b = [np.zeros(b.shape) for b in self.biases]
        nabla_w = [np.zeros(w.shape) for w in self.weights]
        # feedforward
        activation = x
        activations = [x] # list to store all the activations, layer by layer
        zs = [] # list to store all the z vectors, layer by layer
        for b, w in zip(self.biases, self.weights):
            z = np.dot(w, activation)+b
            zs.append(z)
            activation = sigmoid(z)
            activations.append(activation)
        # backward pass
        delta = self.cost_derivative(activations[-1], y) * \
            sigmoid_prime(zs[-1])
        nabla_b[-1] = delta
        nabla_w[-1] = np.dot(delta, activations[-2].transpose())
        # Note that the variable l in the loop below is used a little
        # differently to the notation in Chapter 2 of the book.  Here,
        # l = 1 means the last layer of neurons, l = 2 is the
        # second-last layer, and so on.  It's a renumbering of the
        # scheme in the book, used here to take advantage of the fact
        # that Python can use negative indices in lists.
        for l in xrange(2, self.num_layers):
            z = zs[-l]
            sp = sigmoid_prime(z)
            delta = np.dot(self.weights[-l+1].transpose(), delta) * sp
            nabla_b[-l] = delta
            nabla_w[-l] = np.dot(delta, activations[-l-1].transpose())
        return (nabla_b, nabla_w)

...

    def cost_derivative(self, output_activations, y):
        """Return the vector of partial derivatives \partial C_x /
        \partial a for the output activations."""
        return (output_activations-y) 

def sigmoid(z):
    """The sigmoid function."""
    return 1.0/(1.0+np.exp(-z))

def sigmoid_prime(z):
    """Derivative of the sigmoid function."""
    return sigmoid(z)*(1-sigmoid(z))

问题

  • 在 minibatch 上的反向传播的全矩阵方法 我们对于随机梯度下降的实现是对一个 minibatch 中的训练样本进行遍历。所以也可以更改反向传播算法使得它同时对一个 minibatch 中的所有样本进行梯度计算。这个想法其实就是我们可以用一个矩阵 $$X=[x_1, x_2, ..., x_m]$$,其中每列就是在minibatch 中的向量,而不是单个的输入向量,$$x$$。我们通过乘权重矩阵,加上对应的偏差进行前向传播,在所有地方应用 sigmoid 函数。然后按照类似的过程进行反向传播。请显式写出这种方法下的伪代码。更改 network.py 来实现这个方案。这样做的好处其实利用到了现代的线性代数库。所以,这会比在 minibatch 上进行遍历要运行得更快(在我的笔记本电脑上,在 MNIST 分类问题上,我相较于上一章的实现获得了 2 倍的速度提升)。在实际应用中,所有靠谱的反向传播的库都是用了类似的基于矩阵或者变体的方式来实现的。

在哪种层面上,反向传播是快速的算法?

其中 $$\epsilon>0$$ 是一个很小的正数,而 $$e_j$$ 是在第j个方向上的单位向量。换句话说,我们可以通过计算 $$w_j$$ 的两个接近相同的点的值来估计 $$\partial C/\partial w_j$$,然后应用公式(46)。同样方法也可以用来计算 $$\partial C/\partial b$$。

这个观点看起来非常有希望。概念上易懂,容易实现,使用几行代码就可以搞定。看起来,这样的方法要比使用链式法则还要有效。

然后,遗憾的是,当你实现了之后,运行起来这样的方法非常缓慢。为了理解原因,假设我们有 $$1,000,000$$ 权重。对每个不同的权重 $$w_j$$ 我们需要计算 $$C(w+\epsilon * e_j)$$ 来计算 $$\partial C/\partial w_j$$。这意味着为了计算梯度,我们需要计算代价函数 $$1, 000, 000 $$次,需要 $$1, 000, 000$$ 前向传播(对每个样本)。我们同样需要计算 $$C(w)$$,总共是 $$1,000,001$$ 次。

反向传播聪明的地方就是它确保我们可以同时计算所有的偏导数 $$\partial C/\partial w_j$$ 使用一次前向传播,加上一次后向传播。粗略地说,后向传播的计算代价和前向的一样。*

这个说法是合理的,但需要额外的说明来澄清这一事实。在前向传播过程中主要的计算代价消耗在权重矩阵的乘法上,而反向传播则是计算权重矩阵的转置矩阵。这些操作显然有着类似的计算代价。

所以最终的计算代价大概是两倍的前向传播计算大家。比起直接计算导数,显然 反向传播 有着更大的优势。所以即使 反向传播 看起来要比 (46) 更加复杂,但实际上要更快。

这个加速在1986年首次被众人接受,并直接导致神经网络可以处理的问题的扩展。这也导致了大量的研究者涌向了神经网络方向。当然,反向传播 并不是万能钥匙。在 1980 年代后期,人们尝试挑战极限,尤其是尝试使用反向传播来训练深度神经网络。本书后面,我们将看到现代计算机和一些聪明的新想法已经让 反向传播 成功地训练这样的深度神经网络。

反向传播:大视野

这个改变会导致在输出激活值上的相应改变:

然后,会产生对下一层激活值的改变:

接着,这些改变都将影响到一个个下一层,到达输出层,最终影响代价函数:

所以代价函数 $$\Delta C$$ 改变和 $$\Delta w_{jk}^l$$ 就按照下面的公式关联起来了:

这给出了一种可能的计算 $$\frac{\partial C}{\partial w_{jk}l}$$ 的方法其实是细致地追踪一个 $$w_{jk}l$$ 的微小变化如何导致 $$C$$ 中的变化值。如果我们可以做到这点,能够精确地使用易于计算的量来表达每种关系,那么我们就能够计算 $$\frac{\partial C}{\partial w_{jk}^l}$$ 了。

我们尝试一下这个方法。$$\Delta w_{jk}l$$ 导致了在 $$l{th}$$ 层 $$j{th}$$ 神经元的激活值的变化 $$\Delta a_jl$$。这个变化由下面的公式给出:

$$\Delta a_jl$$ 的变化将会导致下一层的所有激活值的变化。我们聚焦到其中一个激活值上看看影响的情况,不妨设 $$a_q{l+1}$$,

实际上,这会导致下面的变化:

将其代入方程(48),我们得到:

当然,这个变化又会去下一层的激活值。实际上,我们可以想象出一条从 $$w_{jk}l$$ 到 $$C$$ 的路径,然后每个激活值的变化会导致下一层的激活值的变化,最终是输出层的代价的变化。假设激活值的序列如下 $$a_jl, a_q{l+1}, ..., a_n{L-1},a_m^{L}$$,那么结果的表达式就是

我们已经对每个经过的神经元设置了一个 $$\partial a/\partial a$$ 这种形式的项,还有输出层的 $$\partial C/\partial a_mL$$。这表示除了 $$C$$ 的改变由于网络中这条路径上激活值的变化。当然,整个网络中存在很多 $$w_{jk}l$$ 可以传播而影响代价函数的路径,这里我们就看其中一条。为了计算 $$C$$ 的全部改变,我们就需要对所有可能的路径进行求和,即,

这里我们对路径中所有可能的中间神经元选择进行求和。对比 (47) 我们有

现在公式(53)看起来相当复杂。但是,这里其实有一个相当好的直觉上的解释。我们用这个公式计算 $$C$$ 关于网络中一个权重的变化率。而这个公式告诉我们的是:两个神经元之间的连接其实是关联与一个变化率因子,这仅仅是一个神经元的激活值相对于其他神经元的激活值的偏导数。从第一个权重到第一个神经元的变化率因子是 $$\partial a_jl/\partial w_{jk}l$$。路径的变化率因子其实就是这条路径上的众多因子的乘积。而整个的变化率 $$\partial C/\partial w_{jk}^l$$ 就是对于所有可能的从初始权重到最终输出的代价函数的路径的变化率因子的和。针对某一个路径,这个过程解释如下,

我们到现在所给出的东西其实是一种启发式的观点,一种思考权重变化对网络行为影响的方式。让我们给出关于这个观点应用的一些流程建议。首先,你可以推导出公式(53)中所有单独的的偏导数显式表达式。只是一些微积分的运算。完成这些后,你可以弄明白如何用矩阵运算写出对所有可能的情况的求和。这项工作会比较乏味,需要一些耐心,但不用太多的洞察。完成这些后,就可以尽可能地简化了,最后你发现,自己其实就是在做反向传播!所以你可以将反向传播想象成一种计算所有可能的路径变化率的求和的方式。或者,换句话说,反向传播就是一种巧妙地追踪权重(和偏差)微小变化的传播,抵达输出层影响代价函数的技术。

现在我不会继续深入下去。因为这项工作比较无聊。如果你想挑战一下,可以尝试与喜爱。即使你不去尝试,我也希望这种思维方式可以让你能够更好地理解反向传播。

那其他的一些神秘的特性呢——反向传播如何在一开始被发现的?实际上,如果你跟随我刚刚给出的观点,你其实是可以发现反向传播的一种证明的。不幸的是,证明会比本章前面介绍的证明更长和更加的复杂。那么,前面那个简短(却更加神秘)的证明如何被发现的?当你写出来所有关于长证明的细节后,你会发现其实里面包含了一些明显的可以进行改进的地方。然后你进行一些简化,得到稍微简短的证明,写下来。然后又能发现一些更加明显的简化。进过几次迭代证明改进后,你会发现最终的简单却看起来奇特的证明,因为你移除了很多构造的细节了!老实告诉你,其实最早的证明的出现也不是太过神秘的事情。因为那只是很多对简化证明的艰辛工作的积累。