当前位置: 首页 > 工具软件 > Slim Lang > 使用案例 >

slim.fully_connected()

马坚白
2023-12-01

参考  slim.fully_connected() - 云+社区 - 腾讯云

def fully_connected(inputs,
                    num_outputs,
                    activation_fn=nn.relu,
                    normalizer_fn=None,
                    normalizer_params=None,
                    weights_initializer=initializers.xavier_initializer(),
                    weights_regularizer=None,
                    biases_initializer=init_ops.zeros_initializer(),
                    biases_regularizer=None,
                    reuse=None,
                    variables_collections=None,
                    outputs_collections=None,
                    trainable=True,
                    scope=None)
添加一个完全连接的层。“fully_connected”创建一个名为“weights”的变量,表示一个完全连接的权重矩阵,该矩阵乘以“输入”,生成一个隐藏单元的“张量”。如果提供了' normalizer_fn '(例如' batch_norm '),则应用它。否则,如果‘normalizer_fn’为None,并且提供了一个‘biases_initializer’,那么就会创建一个‘bias’变量,并添加隐藏的单元。最后,如果“activation_fn”不是“None”,那么它也应用于隐藏单元。注意:如果“输入”的秩大于2,那么“输入”在初始矩阵乘以“权重”之前是平坦的。

参数:

  • inputs:至少秩为2的张量,最后一个维度为静态值;即。' [batch_size, depth] ', ' [None, None, None, channels] '。
  • num_output:整数或长,层中输出单元的数量。
  • activation_fn:激活函数。默认值是一个ReLU函数。显式地将其设置为None以跳过它并保持线性激活。
  • normalizer_fn:用来代替“偏差”的归一化函数。如果提供“normalizer_fn”,则忽略“biases_initializer”和“biases_regularizer”,并且不会创建或添加“bias”。对于no正常化器函数,默认设置为None
  • normalizer_params:规范化函数参数。
  • weights_initializer:权值的初始化器。
  • weights_regularizer:可选的权重正则化器。
  • biases_initializer:用于偏差的初始化器。如果没有人跳过偏见。
  • biases_regularizer:可选的偏差调整器。
  • reuse:是否应该重用层及其变量。为了能够重用层范围,必须给出。
  • variables_collections:所有变量的可选集合列表,或包含每个变量的不同集合列表的字典。
  • outputs_collections:用于添加输出的集合。
  • trainable:如果“True”还将变量添加到图形集合“GraphKeys”中。TRAINABLE_VARIABLES”(见tf.Variable)。
  • scope:variable_scope的可选作用域。

返回值:

  • 表示一系列运算结果的张量变量。

可能产生的异常:

  • ValueError: If x has rank less than 2 or if its last dimension is not set.

 类似资料:

相关阅读

相关文章

相关问答