当在Keras中声明输入层时,我得到了这个错误消息。
代码:
input_shape=(1, 22, 5, 3844)
model = Sequential()
#C1
model.add(Conv3D(16, (22, 5, 5), strides=(1, 2, 2), padding='valid',activation='relu',data_format= "channels_first", input_shape=input_shape))
model.add(keras.layers.MaxPooling3D(pool_size=(1, 2, 2),data_format= "channels_first", padding='same'))
model.add(BatchNormalization())
#C2
model.add(Conv3D(32, (1, 3, 3), strides=(1, 1,1), padding='valid',data_format= "channels_first", activation='relu'))#incertezza se togliere padding
model.add(keras.layers.MaxPooling3D(pool_size=(1,2, 2),data_format= "channels_first", ))
model.add(BatchNormalization())
#C3
model.add(Conv3D(64, (1,3, 3), strides=(1, 1,1), padding='valid',data_format= "channels_first", activation='relu'))#incertezza se togliere padding
model.add(keras.layers.MaxPooling3D(pool_size=(1,2, 2),data_format= "channels_first", ))
model.add(BatchNormalization())
model.add(Flatten())
model.add(Dropout(0.5))
model.add(Dense(256, activation='sigmoid'))
model.add(Dropout(0.5))
model.add(Dense(2, activation='softmax'))
opt_adam = keras.optimizers.Adam(lr=0.00001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0)
model.compile(loss='categorical_crossentropy', optimizer=opt_adam, metrics=['accuracy'])
如果您设置padding=“valid”
(默认行为),意味着自动降维发生在卷积/maxpooling期间,您将得到负维。为了确保在执行卷积/maxpooling之后获得相同的维度,需要在指定Conv3D和MaxPooling3D层时设置padding=same
。
import tensorflow as tf
from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense, Dropout, Activation, Flatten
from tensorflow.keras.layers import Conv3D, MaxPooling3D, BatchNormalization
import numpy as np
input_shape=(1, 22, 5, 3844)
model = Sequential()
#C1
model.add(Conv3D(16, (22, 5, 5), strides=(1, 2, 2), padding='same',activation='relu',data_format= "channels_first", input_shape=input_shape))
model.add(MaxPooling3D(pool_size=(1, 2, 2),data_format= "channels_first", padding='same'))
model.add(BatchNormalization())
#C2
model.add(Conv3D(32, (1, 3, 3), strides=(1, 1, 1), padding='same',data_format= "channels_first", activation='relu'))#incertezza se togliere padding
model.add(MaxPooling3D(pool_size=(1, 2, 2),data_format= "channels_first", padding='same'))
model.add(BatchNormalization())
#C3
model.add(Conv3D(64, (1, 3, 3), strides=(1, 1, 1), padding='same',data_format= "channels_first", activation='relu'))#incertezza se togliere padding
model.add(MaxPooling3D(pool_size=(1, 2, 2), data_format= "channels_first", padding='same'))
model.add(BatchNormalization())
model.add(Flatten())
model.add(Dropout(0.5))
model.add(Dense(256, activation='sigmoid'))
model.add(Dropout(0.5))
model.add(Dense(2, activation='softmax'))
opt_adam = tf.keras.optimizers.Adam(lr=0.00001, beta_1=0.9, beta_2=0.999, epsilon=1e-08, decay=0.0)
model.compile(loss='categorical_crossentropy', optimizer=opt_adam, metrics=['accuracy'])
print(model.summary())
输出:
Model: "sequential"
_________________________________________________________________
Layer (type) Output Shape Param #
=================================================================
conv3d (Conv3D) (None, 16, 22, 3, 1922) 8816
_________________________________________________________________
max_pooling3d (MaxPooling3D) (None, 16, 22, 2, 961) 0
_________________________________________________________________
batch_normalization (BatchNo (None, 16, 22, 2, 961) 3844
_________________________________________________________________
conv3d_1 (Conv3D) (None, 32, 22, 2, 961) 4640
_________________________________________________________________
max_pooling3d_1 (MaxPooling3 (None, 32, 22, 1, 481) 0
_________________________________________________________________
batch_normalization_1 (Batch (None, 32, 22, 1, 481) 1924
_________________________________________________________________
conv3d_2 (Conv3D) (None, 64, 22, 1, 481) 18496
_________________________________________________________________
max_pooling3d_2 (MaxPooling3 (None, 64, 22, 1, 241) 0
_________________________________________________________________
batch_normalization_2 (Batch (None, 64, 22, 1, 241) 964
_________________________________________________________________
flatten (Flatten) (None, 339328) 0
_________________________________________________________________
dropout (Dropout) (None, 339328) 0
_________________________________________________________________
dense (Dense) (None, 256) 86868224
_________________________________________________________________
dropout_1 (Dropout) (None, 256) 0
_________________________________________________________________
dense_1 (Dense) (None, 2) 514
=================================================================
Total params: 86,907,422
Trainable params: 86,904,056
Non-trainable params: 3,366
_________________________________________________________________
问题内容: 我使用Keras与Tensorflow作为后端,这里是我的代码: 和引用错误: 首先,我看到一些有关版本问题的答案,所以我升级到,但仍然存在,是网络问题还是我遗漏了一些东西,应该是什么样子? 更新 这里是: 问题答案: 你的问题来自于在。 来自Keras Image Processing doc: dim_ordering:{“ th”,“ tf”}中的一个。“ tf”模式表示图像应具
问题内容: 我使用SciPy和scikit-learn来训练和应用多项朴素贝叶斯分类器进行二进制文本分类。准确地讲,我使用该模块来创建稀疏矩阵,该稀疏矩阵包含来自文本的单词特征计数,并使用该模块作为分类器实现,用于在训练数据上训练分类器并将其应用于测试数据。 的输入是表示为unicode字符串的文本文档列表。训练数据比测试数据大得多。我的代码如下所示(简化): 问题:一 接到电话,我就知道了。根据
我最初使用的是setSize,但由于java边框和标题空间的原因,这导致屏幕上的内容比屏幕稍大。所以我使用了setpreferredSize,现在屏幕尺寸有点太大了。在我的内容的右侧和底部留出空间。 在我的框架中: 在我的董事会(JPanel)
问题内容: 我对(N,)维数组和(N,1)维数组之间的转换有疑问。例如,y是(2,)维。 但是下面将显示y2为(2,1)维。 在不复制的情况下将y2转换回y的最有效方法是什么? 谢谢汤姆 问题答案: 为此工作 还请注意,除非需要复制新形状(在这里不需要这样做),否则它不会复制数据:
问题内容: 我试图用本地图像替换训练和验证数据。但是在运行训练代码时,出现了以下错误: ValueError:无法挤压dim [1],预期尺寸为1,输入形状为[100,3]的’sparse_softmax_cross_entropy_loss / remove_squeezable_dimensions / Squeeze’(op:’Squeeze’)得到3。 我不知道该如何解决。模型定义代码中没
问题内容: 我从他们自己的例子中找到了一个散点图 website, This error: 昨天起作用了。但是,我运行了一个使用’conda update–all`的更新。 有什么变化吗? 发生什么事? 我在Linux机器上运行python。 问题答案: 对于“matplotlib==3.3.2”,此问题似乎已解决matplotlib3.3.1.tolist()将“list”发送到“hue”hue