当前位置: 首页 > 知识库问答 >
问题:

Can tf。承包商。图层。batch\u norm计算二维卷积批次归一化,如本文所述?

鲍建业
2023-03-14

正如批处理归一化的原始论文中所述,1-D特征(例如,来自全连接层)和2-D特征(例如,来自卷积层)的批处理归一化以非同寻常的方式不同。

张量流库提供了一种使用1-D特征批量规范化的简单方法,但我不确定2-D是否也是如此。该工具是tf.contrib.layers.batch_norm

我不完全理解这种方法,但我们可以将这种方法应用于二维批量规范化吗?

我看到有些人在二维特征图(有多个通道)上使用它:示例1(链接1,链接2)。

源页面

共有1个答案

翁凯定
2023-03-14

您可以在此处查看batch_normalization的用法,或者在Tensorflow 1.0之后搜索fused_bn的用法。

 类似资料:
  • 卷积神经网络(convolutional neural network)是含有卷积层(convolutional layer)的神经网络。本章中介绍的卷积神经网络均使用最常见的二维卷积层。它有高和宽两个空间维度,常用来处理图像数据。本节中,我们将介绍简单形式的二维卷积层的工作原理。 二维互相关运算 虽然卷积层得名于卷积(convolution)运算,但我们通常在卷积层中使用更加直观的互相关(cro

  • 我正在实现一个依赖于3D卷积的模型(对于类似于动作识别的任务),我想使用批量规范化(参见 下面的代码引用了TensorFlow r0.12,它显式地引用了变量——我的意思是我没有使用tf。承包商。学习tf以外的内容。承包商。图层。batch\u norm()函数。我这样做是为了更好地理解事情是如何运作的,并且有更多的实现自由度(例如,变量摘要)。 我将通过首先编写完全连接层的示例,然后编写2D卷积

  • 我是卷积神经网络新手,对特征映射和如何在图像上进行卷积来提取特征有概念。我很高兴知道一些关于在CNN应用批量标准化的细节。 我知道什么是特征图和不同的元素是权重在每一个特征图。但我不能理解什么是位置或空间位置。 我完全不能理解下面的句子“在alg.1中,我们让B是一个特征映射中的所有值的集合,它跨越了一个小批处理的元素和空间位置。” 如果有人能用更简单的术语来解释我,我会很高兴的

  • 请问以下对卷积神经网络中批量归一化的理解是否正确? 如下图所示,均值和方差是使用当前小批量中各个示例生成的相同特征图上的所有单元格计算的,即它们是跨h、w和m轴计算的。

  • 由于其简单性,我将slim框架用于tensorflow。但我想有一个卷积层,既有偏差又有批量规范化。在vanilla tensorflow中,我有: 我将其改写为slim: 但这段代码并没有给conv层添加偏差。那是因为https://github.com/tensorflow/tensorflow/blob/master/tensorflow/contrib/layers/python/laye

  • 卷积神经网络有一个批量过滤器, 持续不断的在图片上滚动收集图片里的信息,每一次收集的时候都只是收集一小块像素区域, 然后把收集来的信息进行整理, 这时候整理出来的信息有了一些实际上的呈现, 比如这时的神经网络能看到一些边缘的图片信息, 然后在以同样的步骤, 用类似的批量过滤器扫过产生的这些边缘信息, 神经网络从这些边缘信息里面总结出更高层的信息结构,比如说总结的边缘能够画出眼睛,鼻子等等. 再经过