当前位置: 首页 > 知识库问答 >
问题:

keras卷积层中的内核大小是如何定义的?

马寒
2023-03-14

根据文档网站(https://keras.io/layers/convolutional/)keras卷积层的内核大小定义为高度x宽度:

kernel\u size:一个整数或2个整数的元组/列表,指定2D卷积窗口的高度和宽度。可以是单个整数,以便为所有空间标注指定相同的值。

然而,在代码文档中,其定义正好相反:

kernel_size:2个整数的整数或元组/列表,指定2D卷积窗口的宽度和高度。可以是单个整数,为所有空间维度指定相同的值。

哪一个是真的?据我所知,网站的定义应该是正确的,对吗?

共有1个答案

左丘边浩
2023-03-14

是的,网站中的定义是正确的(高度x宽度)。根据此提交,代码文档已在2.2.0版中修复。

https://github.com/keras-team/keras/commit/027d37961afff8a7963836ca87ccdbbf65a78811#diff-d462a3275abee3aa77ba2b341e45cf20L366

 类似资料:
  • 我正在使用MNIST数据集,我正在使用keras来训练卷积神经网络。关于权重矩阵,有些东西我不明白。 输入层有28x28=784个神经元。然后我使用: 在我训练模型后,把W=模型。get\u weights(),I打印W[I]。每个i的形状并获得: 据我所知,这意味着对于第一个隐藏层有32个8x8=64的图像(因为(28-7)/3 1=8)因此第一个隐藏层中有64x32=2048个神经元。 下一部

  • 本文向大家介绍CNN的卷积核是单层还是多层的?相关面试题,主要包含被问及CNN的卷积核是单层还是多层的?时的应答技巧和注意事项,需要的朋友参考一下 描述网络模型中某层的厚度,通常用名词通道channel数或者特征图feature map数。不过人们更习惯把作为数据输入的前层的厚度称之为通道数(比如RGB三色图层称为输入通道数为3),把作为卷积输出的后层的厚度称之为特征图数。 卷积核的厚度H, 一般

  • 如果输入到神经网络卷积层的是128x128x3大小的图像,并对其应用40个5x5大小的滤波器,那么输出大小会是多少?

  • 我对神经网络和keras有点陌生。我有一些大小为6*7的图像,过滤器的大小为15。我想有几个过滤器,并在每个上分别训练一个卷积层,然后组合它们。我在这里看了一个例子: 此型号使用一个过滤器。有谁能给我一些关于如何修改模型以处理并行卷积层的提示吗。 谢啦

  • 我想做一些类似于完全卷积网络的论文(https://people.eecs.berkeley.edu/~jonlong/long\u shelhamer\u fcn。pdf)使用Keras。我有一个网络,它最终将要素地图展平,并将其穿过几个密集的图层。我想将权重从这样的网络加载到一个网络中,在这个网络中,密集层被等效卷积所取代。 Keras附带的VGG16网络可以作为一个示例,其中最后一个MaxP

  • 我在一维输入信号上实现了一个具有批量归一化的卷积神经网络。我的模型有一个相当好的精度约80%。以下是我的图层顺序:(Conv1D,Batch,ReLU,MaxPooling)重复6次,Conv1D,Batch,ReLU,Dense,Softmax。 我看过几篇文章说我不应该在卷积层上使用dropout,而是应该使用批处理规范化,所以我想通过用dropout层替换所有批处理规范化层来试验我的模型,看