在本章中,我们将了解可以使用TensorFlow框架实现的神经网络训练的各个方面。
以下几个建议,可以评估 -
反向传播是计算偏导数的简单方法,其中包括最适合神经网络的基本形式的合成。
在随机梯度下降中,批处理是示例的总数,用户用于在单次迭代中计算梯度。到目前为止,假设批处理已经是整个数据集。最好的例子是谷歌规模; 数据集通常包含数十亿甚至数千亿个示例。
调整学习速率是梯度下降优化的最重要特征之一。这对TensorFlow实施至关重要。
具有大量参数的深度神经网络构成了强大的机器学习系统。然而,过度拟合是这种网络中的严重问题。
最大池化是基于样本的离散化过程。目标是对输入表示进行下采样,从而减少具有所需假设的维数。
LSTM控制在指定神经元内应该采取什么输入的决定。它包括控制决定应该计算什么以及应该生成什么输出。