为了更加方便地进行深度学习开发,我们将一些常用的操作,比如“卷积-标准化-激活函数”这样的层级结构写成一个函数调用,更加方便我们进行开发。
TenorTool:我设计的Tensorflow工具箱
1 Ck
Ck是“convolution—normal—leaky_relu”的层级结构。
函数定义为:
Ck(input,k_size=3,k, slope=0.2, stride=2, reuse=False, norm='instance', is_training=True, name=None,padding="SAME")
其中,各参数的具体含义为:
- input: 4D tensor
- k_size: integer, the size of filter
- k: interger, number of filters(output depth)
- slope: LeakyReLU’s slope(当slope=0时,该层的激活函数变为relu)
- stride: integer(filter的步长)
- norm: ‘instance’ or ‘batch’ or None
- is_training: boolean or BoolTensor
- reuse: boolean
- name: string, e.g. ‘C32’
- padding: ‘SAME’ or ‘VALID’
函数的返回值为
2 Dense
Dense是全连接层结构,具体的形式是“dense–normal–activation”
Dense(input,slope=0.2,norm='instance',is_training=True,reuse = False,name = None,units=1024,activation='leakyrelu')
其中,各参数的具体含义为:
- input: tensor
- slope: LeakyReLU’s slope(当slope=0时,该层的激活函数变为relu)
- norm: ‘instance’ or ‘batch’ or None
- is_training: boolean or BoolTensor
- reuse: boolean
- name: string, e.g. ‘C32’
- units: integer, number of output layer points
- activation: ‘leakrelu’ or ‘sigmoid’ or None
函数的返回值为