我正在使用卷积自动编码器。我的autoenoder配置有一个带stride(2,2)或avg pooling和relu激活的卷积层和一个带stride(2,2)或avg Unmooling和relu激活的反卷积层。
我用MNIST数据集训练自动编码器。
当我在第一个卷积层(20个过滤器,过滤器大小为3)后查看特征图时,我得到了一些黑色特征图,而学习到的过滤器不是黑色的。如果更改过滤器数量或过滤器大小,也会发生同样的情况。
我用TensorFlow和Theano自动编码器得到了这种现象。(我还没有测试其他神经网络软件。)
有人知道为什么会这样吗?
我可以在添加LRN层时避免使用黑色特征贴图,但我想了解为什么会出现黑色特征贴图。
我发现了同样的现象。使用7x7x3x6对数千幅RGB图像进行卷积自动编码器训练后,两个或三个滤波器有一些输出,其他滤波器的输出为零。当它们有太多的零输出滤波器时,误差不会减小。我还更改了过滤器的数量和大小,但结果几乎相同。
我正在做一个在Zynq Soc上映射训练好的CNN的项目。我用张量流训练了一个Lenet,提取了权重和偏差。据我观察,权重的值都接近0,几乎没有一个大于1。但是lenet的输入数据是灰度图像,像素值从0到255。 当我尝试在输入图像和核(训练权重)之间进行二维卷积时,由于卷积结果都接近于0,所以输出特征映射都是黑色图像。甚至还考虑了Relu层。但如下图所示,根据亮度,内核和功能映射中的权重值应在0
我读过这篇文章http://www.codeproject.com/Articles/143059/Neural-Network-for-Recognition-of-Handwritten-Di当我转到这个:第0层:是MNIST数据库中手写字符的灰度图像,填充到29x29像素。输入层有29x29=841个神经元。图层#1:是一个包含六(6)个要素地图的卷积图层。从第1层到前一层有13x13x6=
我有一个多类分类问题。假设我有一个特征矩阵: 和标签: 我想尝试使用Keras沿每个特征行应用卷积核。假设nb\u filter=2,batch\u size=3。所以我希望卷积层的输入形状是(3,4),输出形状是(3,3)(因为它适用于AB、BC、CD)。 下面是我对Keras的尝试(v1.2.1,Theano后端): 形状: 输出: 当我尝试运行此代码时,我得到和异常: 我试图重塑y\U列车:
假设中间CNN层的输入大小为512×512×128,在卷积层中,我们在步长2处应用48个7×7滤波器,没有填充。我想知道结果激活图的大小是多少?
我正在尝试创建一个三维卷积神经网络自动编码器。我无法将张量的输入维与输出维匹配 我尝试过改变图层形状并使用Keras自动编码器。 ValueError:无法将具有1850688元素的张量重塑为'Reshape'(op:'Reshape')的形状[1,31,73,201,3](1364589元素),输入形状:[1,36,84,204,3],[5]并且输入张量计算为部分形状:输入[1]=[1,31,7
假设我有一幅尺寸为125*125的RGB图像,我使用了10个尺寸为5*5、步长为3的过滤器,那么这一层的特征图是什么?特征图的参数总数是多少?10*((125-5)/3)1=(41*41*10)(过滤器数量)但RGB图像和灰度图像之间的区别是什么?因此,对于RGB图像,它应该是41*41*30(过滤器数量*输入图像通道数量)?对于参数总数:5*5*3*10=750?