我是神经网络领域的新手,我想知道深度信念网络和卷积网络之间的区别。还有,有没有深度信念和卷积神经网络相结合的深度卷积网络?
这就是我目前所收集到的。如果我错了请纠正我。
对于图像分类问题,深度信念网络有许多层,每个层都使用贪婪的分层策略进行训练。例如,如果我的图像大小是50x50,我想要一个有4层的深度网络,即
如果使用卷积神经网络解决了同样的问题,那么对于50x50输入图像,我将开发一个仅使用7x7补丁(比方说)的网络。我的图层
为了学习权重,我从50×50大小的图像中提取7×7个贴片,通过卷积层前馈,这样我将得到25个不同的特征映射,每个映射的大小为(50-7+1)×(50-7+1)=44×44。
然后我使用一个窗口,比方说11x11用于池手,因此得到25个大小(4x4)的特征映射,作为池层的输出。我用这些特征图进行分类。
在学习权重时,我没有像深度信念网络(无监督学习)那样使用分层策略,而是使用有监督学习,同时学习所有层的权重。这是正确的还是有其他方法来学习权重?
我所理解的是正确的吗?
因此,如果我想使用DBN进行图像分类,我应该将所有图像的大小调整到一个特定的大小(比如200x200),并且在输入层中有那么多的神经元,而在CNN的情况下,我只训练一小块输入(比如200x200大小的图像是10x10),并在整个图像上卷积学习到的权重?
DBNs比CNNs提供更好的结果,还是纯粹依赖于数据集?
谢谢你。
一般说来,DBN是对受限玻尔兹曼机(RBMs)进行堆叠的生成神经网络。您可以将RBM视为生成式自动编码器;如果你想要一个深度的信念网,你应该堆叠RBM,而不是简单的自动编码器,就像辛顿和他的学生Yeh证明的那样,堆叠RBM会产生sigmoid信念网。
在当前关于MNIST等基准计算机视觉数据集的文献中,卷积神经网络已经比DBNs本身表现得更好。如果数据集不是计算机视觉数据集,那么DBNs绝对可以执行得更好。从理论上讲,DBN应该是最好的模型,但目前很难准确地估计联合概率。你可能对Lee et感兴趣。Al(2009)在卷积深度信念网络方面的工作,它试图将两者结合起来。
最后,我开始学习神经网络,我想知道卷积深度信念网络和卷积网络之间的区别。在这里,有一个类似的问题,但没有确切的答案。我们知道卷积深度信念网络是CNN DBN。所以,我要做一个物体识别。我想知道哪一个比另一个好得多或者它们的复杂性。我搜索了一下,但找不到任何东西,可能是做错了什么。
在LeNet提出后的将近20年里,神经网络一度被其他机器学习方法超越,如支持向量机。虽然LeNet可以在早期的小数据集上取得好的成绩,但是在更大的真实数据集上的表现并不尽如人意。一方面,神经网络计算复杂。虽然20世纪90年代也有过一些针对神经网络的加速硬件,但并没有像之后GPU那样大量普及。因此,训练一个多通道、多层和有大量参数的卷积神经网络在当年很难完成。另一方面,当年研究者还没有大量深入研究参
注意: 本教程适用于对Tensorflow有丰富经验的用户,并假定用户有机器学习相关领域的专业知识和经验。 概述 对CIFAR-10 数据集的分类是机器学习中一个公开的基准测试问题,其任务是对一组大小为32x32的RGB图像进行分类,这些图像涵盖了10个类别: 飞机, 汽车, 鸟, 猫, 鹿, 狗, 青蛙, 马, 船以及卡车。 想了解更多信息请参考CIFAR-10 page,以及Alex Kriz
卷积神经网络(Convolutional Neural Network, CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。卷积神经网络由一个或多个卷积层和顶端的全连通层(对应经典的神经网络)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网络能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网络
我正在学习卷积神经网络,并试图弄清楚数学计算是如何发生的。假设有一个输入图像有3个通道(RGB),所以图像的形状是28*28*3。考虑为下一层应用大小为5*5*3和步幅为1的6个过滤器。这样,我们将在下一层得到24*24*6。由于输入图像是RGB图像,每个滤波器的24*24图像如何解释为RGB图像,即每个滤波器的内部构造的图像大小为24*24*3?
我正在研究CS231n卷积神经网络,用于视觉识别。在卷积神经网络中,神经元按3维排列(,,)。我对CNN的有问题。我无法想象这是什么。 在链接中,他们说。 我可以理解这样的想法:我们从图像上取下一小块区域,然后将它与“滤镜”进行比较。那么滤镜会收集小图像吗?他们还说那么感受野的维数和滤波器的维数是一样的吗?这里的深度是多少?我们使用CNN的深度意味着什么? 编辑:所以在教程的一部分(真实世界示例部