当前位置: 首页 > 知识库问答 >
问题:

卷积神经网络(LeNet 5)。C3、C5层施工

包沈义
2023-03-14

http://i60.tinypic.com/no7tye.png图1卷积神经网络(LeNet5)

在卷积神经网络(LeNet 5)上,图1卷积过程(C1),通过迭代manneur计算最大池(子采样)(S2,S4)层。但我不明白如何正确地进行C3(卷积)层。

http://tinypic.com/r/fvzp86/8图2继续C1层

首先,作为输入,我们接收数字的MNIST 32*32灰度图像,将其视为大小为32*32的字节数组。在C1层中,我们有6个不同的(不同的)内核,其中填充了随机的小值。从1到6的每个内核用于构建6个不同的特性映射(每个特性映射一个内核)。将大小为5*5的感受野从左到右移动一个1像素的步幅(偏差),将图像阵列中的值乘以核值加上偏差,并通过sigmoid函数。结果是当前构建的特征图的i,j。一旦到达图像阵列的末尾,我们就完成了当前特征图的构建。

http://i57.tinypic.com/rk0jk9.jpg图3处理S2层

接下来,我们开始生成S2层,再次将有6个特征图,因为我们分别为C1层的6个特征图中的每一个使用2×2感受野(使用最大池操作,在2×2感受野中选择最大值)。进行C1、S2、S4的迭代操作。

http://i58.tinypic.com/ifsidu.png图4 C3层连接列表

但接下来我们需要计算C3层。根据各种论文,存在一个连接图。您能说说在连接列表下看到了什么吗?这是否意味着我们仍将使用C1层中的5*5感受野。例如,我们看到在第一行中有一个标记的特征映射,对应于列(0,4,5,6,9,10,11,12,14,15)。这是否意味着要构建C3层的0,4,5,6,9,10,11,12,14,15特征图,我们将在S2层的第一个特征图下进行卷积运算,感受野为5×5。在卷积运算期间将使用什么样的具体内核,或者再次,我们需要随机生成16个填充了少量数字的内核,就像我们在C1层所做的那样。如果是,我们将看到C3的特征映射为0,4,5,6,9,10,11,12,14,15,颜色为浅灰色、浅灰色、深灰色、深灰色、浅灰色、深灰色、浅灰色、浅灰色、深灰色。可以清楚地看到,S2的第一个特征图为浅灰色,但只有0,4,6,10,12,14为浅灰色。因此,C3中16个特征图的构建可能以不同的方式进行。您能告诉我如何制作C5层,它会有一些特定的连接列表吗?

共有2个答案

吴西岭
2023-03-14

论文中关于“C5”的关键点似乎是5x5内核应用于所有16个或S4的特征映射-一个完全连接的层。

“每个单元连接到所有16个S4特征地图上的5x5邻域”。

由于我们有120个输出单元,我们应该有120个偏置单元连接(否则架构细节不一致)。

然后,我们连接所有25x16输入单元以生成一个特征映射输出。

所以我们总共有

num\u连接=(25x16 1)x120=48000 120=48120

糜单弓
2023-03-14

免责声明:我刚刚开始这个话题,所以请指出我概念中的错误!

>

  • 在最初的Lenet论文第8页中,您可以找到一个连接图,它将S2的不同层链接到C3的层。这个连接列表告诉我们S2的哪些层正在与内核进行卷积(细节即将出现),以生成C3层。

    你会注意到,S2的每一层都会产生10层(不是全部16层)C3。这表明内核的大小是(5x5x6)x 10。

    在C1中,我们有一个(5x5)x 6内核,即5x5和6个特征映射。这是二维卷积。在C3中,我们有(5x5x6)x 10个内核,即带有10个特征映射的“内核盒”。这10个特征映射和内核盒结合起来生成16层,而不是6层,因为它们没有完全连接。

    关于核权重的生成,它取决于算法。它可以是随机的、预定义的或使用某种方案,例如caffe中的xavier。

    让我困惑的是,内核细节没有得到很好的定义,必须从给定的信息中派生出来。

    更新:C5是如何生产的?

    C5层是一个具有120个特征地图的卷积层。C5特征映射的大小为1x1,因为在S4上应用了5x5内核。在32x32输入的情况下,我们也可以说S4和C5完全连接。应用于S4以获得C5的内核大小为(5x5x16)x 120(未显示偏差)。本文没有明确给出这120个内核盒如何连接到S4的详细信息。然而,作为提示,提到S4和C5是完全连接的。

  •  类似资料:
    • 注意: 本教程适用于对Tensorflow有丰富经验的用户,并假定用户有机器学习相关领域的专业知识和经验。 概述 对CIFAR-10 数据集的分类是机器学习中一个公开的基准测试问题,其任务是对一组大小为32x32的RGB图像进行分类,这些图像涵盖了10个类别: 飞机, 汽车, 鸟, 猫, 鹿, 狗, 青蛙, 马, 船以及卡车。 想了解更多信息请参考CIFAR-10 page,以及Alex Kriz

    • 卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网络能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网络

    • 在了解了机器学习概念之后,现在可以将注意力转移到深度学习概念上。深度学习是机器学习的一个分支。深度学习实现的示例包括图像识别和语音识别等应用。 以下是两种重要的深度神经网络 - 卷积神经网络 递归神经网络 在本章中,我们将重点介绍CNN - 卷积神经网络。 卷积神经网络 卷积神经网络旨在通过多层阵列处理数据。这种类型的神经网络用于图像识别或面部识别等应用。CNN与其他普通神经网络之间的主要区别在于

    • 主要内容:卷积神经网络深度学习是机器学习的一个分支,它是近几十年来研究人员突破的关键步骤。深度学习实现的示例包括图像识别和语音识别等应用。 下面给出了两种重要的深度神经网络 - 卷积神经网络 递归神经网络。 在本章中,我们将关注第一种类型,即卷积神经网络(CNN)。 卷积神经网络 卷积神经网络旨在通过多层阵列处理数据。这种类型的神经网络用于图像识别或面部识别等应用。 CNN与任何其他普通神经网络之间的主要区别在于CNN

    • 注意: 本教程适用于对Tensorflow有丰富经验的用户,并假定用户有机器学习相关领域的专业知识和经验。 概述 对CIFAR-10 数据集的分类是机器学习中一个公开的基准测试问题,其任务是对一组32x32RGB的图像进行分类,这些图像涵盖了10个类别: 飞机, 汽车, 鸟, 猫, 鹿, 狗, 青蛙, 马, 船以及卡车。 想了解更多信息请参考CIFAR-10 page,以及Alex Krizhev

    • 在“多层感知机的从零开始实现”一节里我们构造了一个含单隐藏层的多层感知机模型来对Fashion-MNIST数据集中的图像进行分类。每张图像高和宽均是28像素。我们将图像中的像素逐行展开,得到长度为784的向量,并输入进全连接层中。然而,这种分类方法有一定的局限性。 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易造成模型过大