卷积神经网络中的“局部”层和“密集”层有什么区别?我正在尝试理解TensorFlow中的CIFAR-10代码,我看到它使用“局部”层而不是规则的密集层。TF中是否有支持实现“本地”层的类?
我在问题下引用user2576346的评论:
据我所知,它要么应该是密集连接的,要么是卷积层...
不,这不是真的。更准确的表述方式是,层要么是完全连接的(密集的),要么是局部连接的。
卷积层是局部连接层的一个示例。通常,局部连接层是指其每个单元仅连接到输入的局部部分的层。卷积层是一种特殊类型的局部层,当每个卷积特征检测器在局部接收窗口(例如3x3或5x5大小)中跨越整个图像时,该局部层表现出空间平移不变性。
引用cuda-connet:
具有非共享权重的局部连接层:这种层就像一个卷积层,但没有任何权重共享。也就是说,在输入图像的每个(x,y)位置应用一组不同的过滤器。除此之外,它的行为就像一个卷积层。
在TensorFlow CIFAR-10示例中,虽然这两个层被命名为“local3”和“local4”,但它们实际上是完全连接的层,而不是cuda convnet中指定的本地连接层(您可以看到,来自池2的输出被展平为“local3”层的输入)。
参考这里. Common Layers For a neural network architecture to be considered a CNN, it requires at least one convolution layer (tf.nn.conv2d). There are practical uses for a single layer CNN (edge detection
我想知道Keras中的活化层和致密层有什么区别。 由于激活层似乎是一个完全连接的层,并且密集有一个参数来传递激活函数,那么最佳实践是什么? 让我们想象这样一个虚构的网络:输入- 谢谢大家!
我对他们有严重的怀疑。任何人都可以举例说明和一些想法。
LocallyConnected1D层 LocallyConnected2D层
我在Tensorflow中实现了我的第一个CNN,在将密集层添加到我的CNN模型时遇到了麻烦。下面是代码: 我得到以下输出。后来,我的程序崩溃了。什么东西需要这么多内存?这似乎是致密层,但我无法解释。
我想知道是否有可能在卷积神经网络的密集层中添加一个变量(以及之前卷积层的连接,是否有额外的特征集可用于区分目的)?如果可能的话,有人能给我举个例子/文档来解释如何做到这一点吗? 我希望使用Keras,但如果Keras限制太多,我很乐意使用TensorFlow。 编辑:在这种情况下,我认为这应该起作用的方式是我向神经网络提供一个包含图像和相关特征集的列表(以及在训练相关分类期间)。 EDIT2:我想