15 后端 Backend
什么是 「后端」?
Keras 是一个模型级库,为开发深度学习模型提供了高层次的构建模块。它不处理诸如张量乘积和卷积等低级操作。相反,它依赖于一个专门的、优化的张量操作库来完成这个操作,它可以作为 Keras 的「后端引擎」。相比单独地选择一个张量库,而将 Keras 的实现与该库相关联,Keras 以模块方式处理这个问题,并且可以将几个不同的后端引擎无缝嵌入到 Keras 中。
目前,Keras 有三个后端实现可用: TensorFlow 后端,Theano 后端,CNTK 后端。
- TensorFlow 是由 Google 开发的一个开源符号级张量操作框架。
- Theano 是由蒙特利尔大学的 LISA Lab 开发的一个开源符号级张量操作框架。
- CNTK 是由微软开发的一个深度学习开源工具包。
将来,我们可能会添加更多后端选项。
从一个后端切换到另一个后端
如果您至少运行过一次 Keras,您将在以下位置找到 Keras 配置文件:
$HOME/.keras/keras.json
如果它不在那里,你可以创建它。
Windows用户注意事项: 请将 $HOME
修改为 %USERPROFILE%
。
默认的配置文件如下所示:
{
"image_data_format": "channels_last",
"epsilon": 1e-07,
"floatx": "float32",
"backend": "tensorflow"
}
只需将字段 backend
更改为 theano
,tensorflow
或 cntk
,Keras 将在下次运行 Keras 代码时使用新的配置。
你也可以定义环境变量 KERAS_BACKEND
,这会覆盖配置文件中定义的内容:
KERAS_BACKEND=tensorflow python -c "from keras import backend"
Using TensorFlow backend.
在 Keras 中,可以加载比 "tensorflow"
, "theano"
和 "cntk"
更多的后端。 Keras 也可以使用外部后端,这可以通过更改 keras.json
配置文件和 "backend"
设置来执行。 假设您有一个名为 my_module
的 Python 模块,您希望将其用作外部后端。keras.json
配置文件将更改如下:
{
"image_data_format": "channels_last",
"epsilon": 1e-07,
"floatx": "float32",
"backend": "my_package.my_module"
}
必须验证外部后端才能使用,有效的后端必须具有以下函数:placeholder
, variable
and function
.
如果由于缺少必需的条目而导致外部后端无效,则会记录错误,通知缺少哪些条目。
keras.json 详细配置
The keras.json
配置文件包含以下设置:
{
"image_data_format": "channels_last",
"epsilon": 1e-07,
"floatx": "float32",
"backend": "tensorflow"
}
您可以通过编辑 $ HOME/.keras/keras.json
来更改这些设置。
image_data_format
: 字符串,"channels_last"
或者"channels_first"
。它指定了 Keras 将遵循的数据格式约定。(keras.backend.image_data_format()
返回它。)- 对于 2D 数据 (例如图像),
"channels_last"
假定为(rows, cols, channels)
,而"channels_first"
假定为(channels, rows, cols)
。 - 对于 3D 数据,
"channels_last"
假定为(conv_dim1, conv_dim2, conv_dim3, channels)
,而"channels_first"
假定为(channels, conv_dim1, conv_dim2, conv_dim3)
。
- 对于 2D 数据 (例如图像),
epsilon
: 浮点数,用于避免在某些操作中被零除的数字模糊常量。floatx
: 字符串,"float16"
,"float32"
, 或"float64"
。默认浮点精度。backend
: 字符串,"tensorflow"
,"theano"
, 或"cntk"
。
使用抽象 Keras 后端编写新代码
如果你希望你编写的 Keras 模块与 Theano (th
) 和 TensorFlow (tf
) 兼容,则必须通过抽象 Keras 后端 API 来编写它们。以下是一个介绍。
您可以通过以下方式导入后端模块:
from keras import backend as K
下面的代码实例化一个输入占位符。它等价于 tf.placeholder()
或 th.tensor.matrix()
, th.tensor.tensor3()
, 等等。
inputs = K.placeholder(shape=(2, 4, 5))
# 同样可以:
inputs = K.placeholder(shape=(None, 4, 5))
# 同样可以:
inputs = K.placeholder(ndim=3)
下面的代码实例化一个变量。它等价于 tf.Variable()
或 th.shared()
。
import numpy as np
val = np.random.random((3, 4, 5))
var = K.variable(value=val)
# 全 0 变量:
var = K.zeros(shape=(3, 4, 5))
# 全 1 变量:
var = K.ones(shape=(3, 4, 5))
你需要的大多数张量操作都可以像在 TensorFlow 或 Theano 中那样完成:
# 使用随机数初始化张量
b = K.random_uniform_variable(shape=(3, 4), low=0, high=1) # 均匀分布
c = K.random_normal_variable(shape=(3, 4), mean=0, scale=1) # 高斯分布
d = K.random_normal_variable(shape=(3, 4), mean=0, scale=1)
# 张量运算
a = b + c * K.abs(d)
c = K.dot(a, K.transpose(b))
a = K.sum(b, axis=1)
a = K.softmax(b)
a = K.concatenate([b, c], axis=-1)
# 等等
后端函数
backend
backend.backend()
返回当前后端的名字 (例如 "tensorflow")。
返回
字符串,Keras 目前正在使用的后端名。
示例
>>> keras.backend.backend()
'tensorflow'
symbolic
keras.backend.symbolic(func)
在 TensorFlow 2.0 中用于进入 Keras 图的装饰器。
参数
- func: 需要装饰的函数。
返回
装饰后的函数。
eager
keras.backend.eager(func)
在 TensorFlow 2.0 中用于退出 Keras 图的装饰器。
参数
- func: 需要装饰的函数。
返回
装饰后的函数。
get_uid
keras.backend.get_uid(prefix='')
提供一个戴字符串前缀的独立 UID。
参数
- prefix: 字符串。
返回
一个整数。
示例
>>> keras.backend.get_uid('dense')
1
>>> keras.backend.get_uid('dense')
2
manual_variable_initialization
keras.backend.manual_variable_initialization(value)
设置手动变量初始化标识。
这个布尔标识决定变量是否在实例化(默认)时初始化,或者让用户自己来处理初始化。
参数
- value: Python 布尔值。
epsilon
keras.backend.epsilon()
返回数字表达式中使用的模糊因子的值。
返回
一个浮点数。
示例
>>> keras.backend.epsilon()
1e-07
reset_uids
keras.backend.reset_uids()
重置图标识。
set_epsilon
keras.backend.set_epsilon(e)
设置数字表达式中使用的模糊因子的值。
参数
- e: 浮点数。新的 epsilon 值。
示例
>>> from keras import backend as K
>>> K.epsilon()
1e-07
>>> K.set_epsilon(1e-05)
>>> K.epsilon()
1e-05
floatx
keras.backend.floatx()
以字符串形式返回默认的浮点类型。 (例如,'float16', 'float32', 'float64')。
返回
字符串,当前默认的浮点类型。
示例
>>> keras.backend.floatx()
'float32'
set_floatx
keras.backend.set_floatx(floatx)
设置默认的浮点类型。
参数
- floatx: 字符串,'float16', 'float32', 或 'float64'。
示例
>>> from keras import backend as K
>>> K.floatx()
'float32'
>>> K.set_floatx('float16')
>>> K.floatx()
'float16'
cast_to_floatx
keras.backend.cast_to_floatx(x)
将 Numpy 数组转换为默认的 Keras 浮点类型。
参数
- x: Numpy 数组。
返回
相同的 Numpy 数组,转换为它的新类型。
示例
>>> from keras import backend as K
>>> K.floatx()
'float32'
>>> arr = numpy.array([1.0, 2.0], dtype='float64')
>>> arr.dtype
dtype('float64')
>>> new_arr = K.cast_to_floatx(arr)
>>> new_arr
array([ 1., 2.], dtype=float32)
>>> new_arr.dtype
dtype('float32')
image_data_format
keras.backend.image_data_format()
返回默认图像数据格式约定。
返回
一个字符串,'channels_first'
或 'channels_last'
示例
>>> keras.backend.image_data_format()
'channels_first'
set_image_data_format
keras.backend.set_image_data_format(data_format)
设置数据格式约定的值。
参数
- data_format: 字符串。
'channels_first'
或'channels_last'
。
示例
>>> from keras import backend as K
>>> K.image_data_format()
'channels_first'
>>> K.set_image_data_format('channels_last')
>>> K.image_data_format()
'channels_last'
learning_phase
keras.backend.learning_phase()
返回学习阶段的标志。
学习阶段标志是一个布尔张量(0 = test,1 = train), 它作为输入传递给任何的 Keras 函数,以在训练和测试 时执行不同的行为操作。
返回
学习阶段 (标量整数张量或 python 整数)。
set_learning_phase
keras.backend.set_learning_phase(value)
将学习阶段设置为固定值。
参数
- value: 学习阶段的值,0 或 1(整数)。
异常
- ValueError: 如果
value
既不是0
也不是1
。
clear_session
keras.backend.clear_session()
销毁当前的 Keras 图并创建一个新图。
有用于避免旧模型/网络层混乱。
is_sparse
keras.backend.is_sparse(tensor)
判断张量是否是稀疏张量。
参数
- tensor: 一个张量实例。
返回
布尔值。
示例
>>> from keras import backend as K
>>> a = K.placeholder((2, 2), sparse=False)
>>> print(K.is_sparse(a))
False
>>> b = K.placeholder((2, 2), sparse=True)
>>> print(K.is_sparse(b))
True
to_dense
keras.backend.to_dense(tensor)
将稀疏张量转换为稠密张量并返回。
参数
- tensor: 张量实例(可能稀疏)。
返回
一个稠密张量。
示例
>>> from keras import backend as K
>>> b = K.placeholder((2, 2), sparse=True)
>>> print(K.is_sparse(b))
True
>>> c = K.to_dense(b)
>>> print(K.is_sparse(c))
False
variable
keras.backend.variable(value, dtype=None, name=None, constraint=None)
实例化一个变量并返回它。
参数
- value: Numpy 数组,张量的初始值。
- dtype: 张量类型。
- name: 张量的可选名称字符串。
- constraint: 在优化器更新后应用于变量的可选投影函数。
返回
变量实例(包含 Keras 元数据)
示例
>>> from keras import backend as K
>>> val = np.array([[1, 2], [3, 4]])
>>> kvar = K.variable(value=val, dtype='float64', name='example_var')
>>> K.dtype(kvar)
'float64'
>>> print(kvar)
example_var
>>> K.eval(kvar)
array([[ 1., 2.],
[ 3., 4.]])
is_variable
keras.backend.is_variable(x)
constant
keras.backend.constant(value, dtype=None, shape=None, name=None)
创建一个常数张量。
参数
- value: 一个常数值(或列表)
- dtype: 结果张量的元素类型。
- shape: 可选的结果张量的尺寸。
- name: 可选的张量的名称。
返回
一个常数张量。
is_keras_tensor
keras.backend.is_keras_tensor(x)
判断 x
是否是 Keras 张量
「Keras张量」是由 Keras 层(Layer
类)或 Input
返回的张量。
参数
- x: 候选张量。
返回
布尔值:参数是否是 Keras 张量。
异常
- ValueError: 如果
x
不是一个符号张量。
示例
>>> from keras import backend as K
>>> from keras.layers import Input, Dense
>>> np_var = numpy.array([1, 2])
>>> K.is_keras_tensor(np_var) # 一个 Numpy 数组不是一个符号张量。
ValueError
>>> k_var = tf.placeholder('float32', shape=(1,1))
# 在 Keras 之外间接创建的变量不是 Keras 张量。
>>> K.is_keras_tensor(k_var)
False
>>> keras_var = K.variable(np_var)
# Keras 后端创建的变量不是 Keras 张量。
>>> K.is_keras_tensor(keras_var)
False
>>> keras_placeholder = K.placeholder(shape=(2, 4, 5))
# 占位符不是 Keras 张量。
>>> K.is_keras_tensor(keras_placeholder)
False
>>> keras_input = Input([10])
>>> K.is_keras_tensor(keras_input) # 输入 Input 是 Keras 张量。
True
>>> keras_layer_output = Dense(10)(keras_input)
# 任何 Keras 层输出都是 Keras 张量。
>>> K.is_keras_tensor(keras_layer_output)
True
is_tensor
keras.backend.is_tensor(x)
placeholder
keras.backend.placeholder(shape=None, ndim=None, dtype=None, sparse=False, name=None)
实例化一个占位符张量并返回它。
参数
- shape: 占位符尺寸 (整数元组,可能包含
None
项)。 - ndim: 张量的轴数。 {
shape
,ndim
} 至少一个需要被指定。 如果两个都被指定,那么使用shape
。 - dtype: 占位符类型。
- sparse: 布尔值,占位符是否应该有一个稀疏类型。
- name: 可选的占位符的名称字符串。
返回
张量实例(包括 Keras 元数据)。
示例
>>> from keras import backend as K
>>> input_ph = K.placeholder(shape=(2, 4, 5))
>>> input_ph._keras_shape
(2, 4, 5)
>>> input_ph
<tf.Tensor 'Placeholder_4:0' shape=(2, 4, 5) dtype=float32>
is_placeholder
keras.backend.is_placeholder(x)
判断 x
是否是占位符。
参数
- x: 候选占位符。
返回
布尔值。
shape
keras.backend.shape(x)
返回张量或变量的符号尺寸。
参数
- x: 张量或变量。
返回
符号尺寸(它本身就是张量)。
示例
# TensorFlow 示例
>>> from keras import backend as K
>>> tf_session = K.get_session()
>>> val = np.array([[1, 2], [3, 4]])
>>> kvar = K.variable(value=val)
>>> inputs = keras.backend.placeholder(shape=(2, 4, 5))
>>> K.shape(kvar)
<tf.Tensor 'Shape_8:0' shape=(2,) dtype=int32>
>>> K.shape(inputs)
<tf.Tensor 'Shape_9:0' shape=(3,) dtype=int32>
# 要得到整数尺寸 (相反,你可以使用 K.int_shape(x))
>>> K.shape(kvar).eval(session=tf_session)
array([2, 2], dtype=int32)
>>> K.shape(inputs).eval(session=tf_session)
array([2, 4, 5], dtype=int32)
int_shape
keras.backend.int_shape(x)
返回张量或变量的尺寸,作为 int 或 None 项的元组。
参数
- x: 张量或变量。
返回
整数元组(或 None 项)。
示例
>>> from keras import backend as K
>>> inputs = K.placeholder(shape=(2, 4, 5))
>>> K.int_shape(inputs)
(2, 4, 5)
>>> val = np.array([[1, 2], [3, 4]])
>>> kvar = K.variable(value=val)
>>> K.int_shape(kvar)
(2, 2)
Numpy 实现
def int_shape(x):
return x.shape
ndim
keras.backend.ndim(x)
以整数形式返回张量中的轴数。
参数
- x: 张量或变量。
返回
整数 (标量), 轴的数量。
示例
>>> from keras import backend as K
>>> inputs = K.placeholder(shape=(2, 4, 5))
>>> val = np.array([[1, 2], [3, 4]])
>>> kvar = K.variable(value=val)
>>> K.ndim(inputs)
3
>>> K.ndim(kvar)
2
Numpy 实现
def ndim(x):
return x.ndim
size
keras.backend.size(x, name=None)
返回张量尺寸。
参数
- x: 张量或变量。
- name: 操作名称(可选)。
返回
张量尺寸
示例
>>> from keras import backend as K
>>> val = np.array([[1, 2], [3, 4]])
>>> kvar = K.variable(value=val)
>>> K.size(inputs)
<tf.Tensor: id=9, shape=(), dtype=int32, numpy=4>
dtype
keras.backend.dtype(x)
以字符串形式返回 Keras 张量或变量的 dtype。
参数
- x: 张量或变量。
返回
字符串,x
的 dtype。
示例
>>> from keras import backend as K
>>> K.dtype(K.placeholder(shape=(2,4,5)))
'float32'
>>> K.dtype(K.placeholder(shape=(2,4,5), dtype='float32'))
'float32'
>>> K.dtype(K.placeholder(shape=(2,4,5), dtype='float64'))
'float64'
# Keras 变量
>>> kvar = K.variable(np.array([[1, 2], [3, 4]]))
>>> K.dtype(kvar)
'float32_ref'
>>> kvar = K.variable(np.array([[1, 2], [3, 4]]), dtype='float32')
>>> K.dtype(kvar)
'float32_ref'
Numpy 实现
def dtype(x):
return x.dtype.name
eval
keras.backend.eval(x)
估计一个张量的值。
参数
- x: 张量。
返回
Numpy 数组。
示例
>>> from keras import backend as K
>>> kvar = K.variable(np.array([[1, 2], [3, 4]]), dtype='float32')
>>> K.eval(kvar)
array([[ 1., 2.],
[ 3., 4.]], dtype=float32)
Numpy 实现
def eval(x):
return x
zeros
keras.backend.zeros(shape, dtype=None, name=None)
实例化一个全零变量并返回它。
参数
- shape: 整数元组,返回的Keras变量的尺寸。
- dtype: 字符串,返回的 Keras 变量的数据类型。
- name: 字符串,返回的 Keras 变量的名称。
返回
一个变量(包括 Keras 元数据),用 0.0
填充。 请注意,如果 shape
是符号化的,我们不能返回一个变量, 而会返回一个动态尺寸的张量。
示例
>>> from keras import backend as K
>>> kvar = K.zeros((3,4))
>>> K.eval(kvar)
array([[ 0., 0., 0., 0.],
[ 0., 0., 0., 0.],
[ 0., 0., 0., 0.]], dtype=float32)
Numpy 实现
def zeros(shape, dtype=floatx(), name=None):
return np.zeros(shape, dtype=dtype)
ones
keras.backend.ones(shape, dtype=None, name=None)
实例化一个全一变量并返回它。
参数
- shape: 整数元组,返回的Keras变量的尺寸。
- dtype: 字符串,返回的 Keras 变量的数据类型。
- name: 字符串,返回的 Keras 变量的名称。
返回
一个 Keras 变量,用 1.0
填充。 请注意,如果 shape
是符号化的,我们不能返回一个变量, 而会返回一个动态尺寸的张量。
示例
>>> from keras import backend as K
>>> kvar = K.ones((3,4))
>>> K.eval(kvar)
array([[ 1., 1., 1., 1.],
[ 1., 1., 1., 1.],
[ 1., 1., 1., 1.]], dtype=float32)
Numpy 实现
def ones(shape, dtype=floatx(), name=None):
return np.ones(shape, dtype=dtype)
eye
keras.backend.eye(size, dtype=None, name=None)
实例化一个单位矩阵并返回它。
参数
- size: 元组,行和列的数目。如果是整数,则为行数。
- dtype: 字符串,返回的 Keras 变量的数据类型。
- name: 字符串,返回的 Keras 变量的名称。
返回
Keras 变量,一个单位矩阵。
示例
>>> from keras import backend as K
>>> K.eval(K.eye(3))
array([[ 1., 0., 0.],
[ 0., 1., 0.],
[ 0., 0., 1.]], dtype=float32)
>>> K.eval(K.eye((2, 3)))
array([[1., 0., 0.],
[0., 1., 0.]], dtype=float32
Numpy 实现
def eye(size, dtype=None, name=None):
if isinstance(size, (list, tuple)):
n, m = size
else:
n, m = size, size
return np.eye(n, m, dtype=dtype)
zeros_like
keras.backend.zeros_like(x, dtype=None, name=None)
实例化与另一个张量相同尺寸的全零变量。
参数
- x: Keras 变量或 Keras 张量。
- dtype: 字符串,返回的 Keras 变量的类型。 如果为 None,则使用 x 的类型。
- name: 字符串,所创建的变量的名称。
返回
一个 Keras 变量,其形状为 x,用零填充。
示例
>>> from keras import backend as K
>>> kvar = K.variable(np.random.random((2,3)))
>>> kvar_zeros = K.zeros_like(kvar)
>>> K.eval(kvar_zeros)
array([[ 0., 0., 0.],
[ 0., 0., 0.]], dtype=float32)
Numpy 实现
def zeros_like(x, dtype=floatx(), name=None):
return np.zeros_like(x, dtype=dtype)
ones_like
keras.backend.ones_like(x, dtype=None, name=None)
实例化与另一个张量相同形状的全一变量。
参数
- x: Keras 变量或张量。
- dtype: 字符串,返回的 Keras 变量的类型。 如果为 None,则使用 x 的类型。
- name: 字符串,所创建的变量的名称。
返回
一个 Keras 变量,其形状为 x,用一填充。
示例
>>> from keras import backend as K
>>> kvar = K.variable(np.random.random((2,3)))
>>> kvar_ones = K.ones_like(kvar)
>>> K.eval(kvar_ones)
array([[ 1., 1., 1.],
[ 1., 1., 1.]], dtype=float32)
Numpy 实现
def ones_like(x, dtype=floatx(), name=None):
return np.ones_like(x, dtype=dtype)
identity
keras.backend.identity(x, name=None)
返回与输入张量相同内容的张量。
参数
- x: 输入张量。
- name: 字符串,所创建的变量的名称。
返回
一个相同尺寸、类型和内容的张量。
random_uniform_variable
keras.backend.random_uniform_variable(shape, low, high, dtype=None, name=None, seed=None)
使用从均匀分布中抽样出来的值来实例化变量。
参数
- shape: 整数元组,返回的 Keras 变量的尺寸。
- low: 浮点数,输出间隔的下界。
- high: 浮点数,输出间隔的上界。
- dtype: 字符串,返回的 Keras 变量的数据类型。
- name: 字符串,返回的 Keras 变量的名称。
- seed: 整数,随机种子。
返回
一个 Keras 变量,以抽取的样本填充。
示例
# TensorFlow 示例
>>> kvar = K.random_uniform_variable((2,3), 0, 1)
>>> kvar
<tensorflow.python.ops.variables.Variable object at 0x10ab40b10>
>>> K.eval(kvar)
array([[ 0.10940075, 0.10047495, 0.476143 ],
[ 0.66137183, 0.00869417, 0.89220798]], dtype=float32)
Numpy 实现
def random_uniform_variable(shape, low, high, dtype=None, name=None, seed=None):
return (high - low) * np.random.random(shape).astype(dtype) + low
random_normal_variable
keras.backend.random_normal_variable(shape, mean, scale, dtype=None, name=None, seed=None)
使用从正态分布中抽取的值实例化一个变量。
参数
- shape: 整数元组,返回的Keras变量的尺寸。
- mean: 浮点型,正态分布平均值。
- scale: 浮点型,正态分布标准差。
- dtype: 字符串,返回的Keras变量的 dtype。
- name: 字符串,返回的Keras变量的名称。
- seed: 整数,随机种子。
返回
一个 Keras 变量,以抽取的样本填充。
示例
# TensorFlow 示例
>>> kvar = K.random_normal_variable((2,3), 0, 1)
>>> kvar
<tensorflow.python.ops.variables.Variable object at 0x10ab12dd0>
>>> K.eval(kvar)
array([[ 1.19591331, 0.68685907, -0.63814116],
[ 0.92629528, 0.28055015, 1.70484698]], dtype=float32)
Numpy 实现
def random_normal_variable(shape, mean, scale, dtype=None, name=None, seed=None):
return scale * np.random.randn(*shape).astype(dtype) + mean
count_params
keras.backend.count_params(x)
返回 Keras 变量或张量中的静态元素数。
参数
- x: Keras 变量或张量。
返回
整数,x
中的元素数量,即,数组中静态维度的乘积。
示例
>>> kvar = K.zeros((2,3))
>>> K.count_params(kvar)
6
>>> K.eval(kvar)
array([[ 0., 0., 0.],
[ 0., 0., 0.]], dtype=float32)
Numpy 实现
def count_params(x):
return x.size
cast
keras.backend.cast(x, dtype)
将张量转换到不同的 dtype 并返回。
你可以转换一个 Keras 变量,但它仍然返回一个 Keras 张量。
参数
- x: Keras 张量(或变量)。
- dtype: 字符串, (
'float16'
,'float32'
或'float64'
)。
返回
Keras 张量,类型为 dtype
。
示例
>>> from keras import backend as K
>>> input = K.placeholder((2, 3), dtype='float32')
>>> input
<tf.Tensor 'Placeholder_2:0' shape=(2, 3) dtype=float32>
# It doesn't work in-place as below.
>>> K.cast(input, dtype='float16')
<tf.Tensor 'Cast_1:0' shape=(2, 3) dtype=float16>
>>> input
<tf.Tensor 'Placeholder_2:0' shape=(2, 3) dtype=float32>
# you need to assign it.
>>> input = K.cast(input, dtype='float16')
>>> input
<tf.Tensor 'Cast_2:0' shape=(2, 3) dtype=float16>
update
keras.backend.update(x, new_x)
将 x
的值更新为 new_x
。
参数
- x: 一个
Variable
。 - new_x: 一个与
x
尺寸相同的张量。
返回
更新后的变量 x
。
update_add
keras.backend.update_add(x, increment)
通过增加 increment
来更新 x
的值。
参数
- x: 一个
Variable
。 - increment: 与
x
形状相同的张量。
返回
更新后的变量 x
。
update_sub
keras.backend.update_sub(x, decrement)
通过减 decrement
来更新 x
的值。
参数
- x: 一个
Variable
。 - decrement: 与
x
形状相同的张量。
返回
更新后的变量 x
。
moving_average_update
keras.backend.moving_average_update(x, value, momentum)
计算变量的移动平均值。
参数
- x: 一个
Variable
。 - value: 与
x
形状相同的张量。 - momentum: 移动平均动量。
返回
更新变量的操作。
dot
keras.backend.dot(x, y)
将 2 个张量(和/或变量)相乘并返回一个张量。
当试图将 nD 张量与 nD 张量相乘时, 它会重现 Theano 行为。 (例如 (2, 3) * (4, 3, 5) -> (2, 4, 5)
)
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个张量,x
和 y
的点积。
示例
# 张量之间的点积
>>> x = K.placeholder(shape=(2, 3))
>>> y = K.placeholder(shape=(3, 4))
>>> xy = K.dot(x, y)
>>> xy
<tf.Tensor 'MatMul_9:0' shape=(2, 4) dtype=float32>
# 张量之间的点积
>>> x = K.placeholder(shape=(32, 28, 3))
>>> y = K.placeholder(shape=(3, 4))
>>> xy = K.dot(x, y)
>>> xy
<tf.Tensor 'MatMul_9:0' shape=(32, 28, 4) dtype=float32>
# 类 Theano 行为的示例
>>> x = K.random_uniform_variable(shape=(2, 3), low=0, high=1)
>>> y = K.ones((4, 3, 5))
>>> xy = K.dot(x, y)
>>> K.int_shape(xy)
(2, 4, 5)
Numpy 实现
def dot(x, y):
return np.dot(x, y)
batch_dot
keras.backend.batch_dot(x, y, axes=None)
批量化的点积。
当 x
和 y
是批量数据时, batch_dot
用于计算 x
和 y
的点积, 即尺寸为 (batch_size, :)
。
batch_dot
产生一个比输入尺寸更小的张量或变量。 如果维数减少到 1,我们使用 expand_dims
来确保 ndim 至少为 2。
参数
- x:
ndim >= 2
的 Keras 张量或变量。 - y:
ndim >= 2
的 Keras 张量或变量。 - axes: 整数或元组 (int, int)。 需要归约的目标维度。
返回
一个尺寸等于 x
的尺寸(减去总和的维度)和 y
的尺寸(减去批次维度和总和的维度)的连接的张量。 如果最后的秩为 1,我们将它重新转换为 (batch_size, 1)
。
示例
假设 x = [[1, 2], [3, 4]]
和 y = [[5, 6], [7, 8]]
, batch_dot(x, y, axes=1) = [[17], [53]]
是 x.dot(y.T)
的主对角线, 尽管我们不需要计算非对角元素。
伪代码:
inner_products = []
for xi, yi in zip(x, y):
inner_products.append(xi.dot(yi))
result = stack(inner_products)
尺寸推断: 让 x
的尺寸为 (100, 20)
,以及 y
的尺寸为 (100, 30, 20)
。 如果 axes
是 (1, 2),要找出结果张量的尺寸, 循环 x
和 y
的尺寸的每一个维度。
x.shape[0]
: 100 : 附加到输出形状,x.shape[1]
: 20 : 不附加到输出形状,x
的第一个维度已经被加和了 (dot_axes[0]
= 1)。y.shape[0]
: 100 : 不附加到输出形状,总是忽略y
的第一维y.shape[1]
: 30 : 附加到输出形状,y.shape[2]
: 20 : 不附加到输出形状,y
的第二个维度已经被加和了 (dot_axes[0]
= 2)。output_shape
=(100, 30)
>>> x_batch = K.ones(shape=(32, 20, 1))
>>> y_batch = K.ones(shape=(32, 30, 20))
>>> xy_batch_dot = K.batch_dot(x_batch, y_batch, axes=(1, 2))
>>> K.int_shape(xy_batch_dot)
(32, 1, 30)
Numpy 实现
展示 Numpy 实现
```python def batch_dot(x, y, axes=None): if x.ndim < 2 or y.ndim < 2: raise ValueError('Batch dot requires inputs of rank 2 or more.') if isinstance(axes, int): axes = [axes, axes] elif isinstance(axes, tuple): axes = list(axes) if axes is None: if y.ndim == 2: axes = [x.ndim - 1, y.ndim - 1] else: axes = [x.ndim - 1, y.ndim - 2] if any([isinstance(a, (list, tuple)) for a in axes]): raise ValueError('Multiple target dimensions are not supported. ' + 'Expected: None, int, (int, int), ' + 'Provided: ' + str(axes)) # 处理负轴 if axes[0] < 0: axes[0] += x.ndim if axes[1] < 0: axes[1] += y.ndim if 0 in axes: raise ValueError('Can not perform batch dot over axis 0.') if x.shape[0] != y.shape[0]: raise ValueError('Can not perform batch dot on inputs' ' with different batch sizes.') d1 = x.shape[axes[0]] d2 = y.shape[axes[1]] if d1 != d2: raise ValueError('Can not do batch_dot on inputs with shapes ' + str(x.shape) + ' and ' + str(y.shape) + ' with axes=' + str(axes) + '. x.shape[%d] != ' 'y.shape[%d] (%d != %d).' % (axes[0], axes[1], d1, d2)) result = [] axes = [axes[0] - 1, axes[1] - 1] # 忽略批次维度 for xi, yi in zip(x, y): result.append(np.tensordot(xi, yi, axes)) result = np.array(result) if result.ndim == 1: result = np.expand_dims(result, -1) return result ```transpose
keras.backend.transpose(x)
将张量转置并返回。
参数
- x: 张量或变量。
返回
一个张量。
示例
>>> var = K.variable([[1, 2, 3], [4, 5, 6]])
>>> K.eval(var)
array([[ 1., 2., 3.],
[ 4., 5., 6.]], dtype=float32)
>>> var_transposed = K.transpose(var)
>>> K.eval(var_transposed)
array([[ 1., 4.],
[ 2., 5.],
[ 3., 6.]], dtype=float32)
>>> inputs = K.placeholder((2, 3))
>>> inputs
<tf.Tensor 'Placeholder_11:0' shape=(2, 3) dtype=float32>
>>> input_transposed = K.transpose(inputs)
>>> input_transposed
<tf.Tensor 'transpose_4:0' shape=(3, 2) dtype=float32>
Numpy 实现
def transpose(x):
return np.transpose(x)
gather
keras.backend.gather(reference, indices)
在张量 reference
中检索索引 indices
的元素。
参数
- reference: 一个张量。
- indices: 索引的整数张量。
返回
与 reference
类型相同的张量。
Numpy 实现
def gather(reference, indices):
return reference[indices]
max
keras.backend.max(x, axis=None, keepdims=False)
张量中的最大值。
参数
- x: 张量或变量。
- axis: 一个整数,需要在哪个轴寻找最大值。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则张量的秩减 1。 如果keepdims
为True
,缩小的维度保留为长度 1。
返回
x
中最大值的张量。
Numpy 实现
def max(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.max(x, axis=axis, keepdims=keepdims)
min
keras.backend.min(x, axis=None, keepdims=False)
张量中的最小值。
参数
- x: 张量或变量。
- axis: 一个整数,需要在哪个轴寻找最大值。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则张量的秩减 1。 如果keepdims
为True
,缩小的维度保留为长度 1。
返回
x
中最小值的张量。
Numpy 实现
def min(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.min(x, axis=axis, keepdims=keepdims)
sum
keras.backend.sum(x, axis=None, keepdims=False)
计算张量在某一指定轴的和。
参数
- x: 张量或变量。
- axis: 一个整数,需要加和的轴。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则张量的秩减 1。 如果keepdims
为True
,缩小的维度保留为长度 1。
返回
x
的和的张量。
Numpy 实现
def sum(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.sum(x, axis=axis, keepdims=keepdims)
prod
keras.backend.prod(x, axis=None, keepdims=False)
在某一指定轴,计算张量中的值的乘积。
参数
- x: 张量或变量。
- axis: 一个整数需要计算乘积的轴。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则张量的秩减 1。 如果keepdims
为True
,缩小的维度保留为长度 1。
返回
x
的元素的乘积的张量。
Numpy 实现
def prod(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.prod(x, axis=axis, keepdims=keepdims)
cumsum
keras.backend.cumsum(x, axis=0)
在某一指定轴,计算张量中的值的累加和。
参数
- x: 张量或变量。
- axis: 一个整数,需要加和的轴。
返回
x
在 axis
轴的累加和的张量。
Numpy 实现
def cumsum(x, axis=0):
return np.cumsum(x, axis=axis)
cumprod
keras.backend.cumprod(x, axis=0)
在某一指定轴,计算张量中的值的累积乘积。
参数
- x: 张量或变量。
- axis: 一个整数,需要计算乘积的轴。
返回
x
在 axis
轴的累乘的张量。
Numpy 实现
def cumprod(x, axis=0):
return np.cumprod(x, axis=axis)
var
keras.backend.var(x, axis=None, keepdims=False)
张量在某一指定轴的方差。
参数
- x: 张量或变量。
- axis: 一个整数,要计算方差的轴。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则张量的秩减 1。 如果keepdims
为True
,缩小的维度保留为长度 1。
返回
x
元素的方差的张量。
Numpy 实现
def var(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.var(x, axis=axis, keepdims=keepdims)
std
keras.backend.std(x, axis=None, keepdims=False)
张量在某一指定轴的标准差。
参数
- x: 张量或变量。
- axis: 一个整数,要计算标准差的轴。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则张量的秩减 1。 如果keepdims
为True
,缩小的维度保留为长度 1。
返回
x
元素的标准差的张量。
Numpy 实现
def std(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.std(x, axis=axis, keepdims=keepdims)
mean
keras.backend.mean(x, axis=None, keepdims=False)
张量在某一指定轴的均值。
参数
- x: A tensor or variable.
- axis: 整数或列表。需要计算均值的轴。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则axis
中每一项的张量秩减 1。 如果keepdims
为True
,则缩小的维度保留为长度 1。
返回
x
元素的均值的张量。
Numpy 实现
def mean(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.mean(x, axis=axis, keepdims=keepdims)
any
keras.backend.any(x, axis=None, keepdims=False)
reduction
按位归约(逻辑 OR)。
参数
- x: 张量或变量。
- axis: 执行归约操作的轴。
- keepdims: 是否放弃或广播归约的轴。
返回
一个 uint8 张量 (0s 和 1s)。
Numpy 实现
def any(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.any(x, axis=axis, keepdims=keepdims)
all
keras.backend.all(x, axis=None, keepdims=False)
按位归约(逻辑 AND)。
参数
- x: 张量或变量。
- axis: 执行归约操作的轴。
- keepdims: 是否放弃或广播归约的轴。
返回
一个 uint8 张量 (0s 和 1s)。
Numpy 实现
def all(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return np.all(x, axis=axis, keepdims=keepdims)
argmax
keras.backend.argmax(x, axis=-1)
返回指定轴的最大值的索引。
参数
- x: 张量或变量。
- axis: 执行归约操作的轴。
返回
一个张量。
Numpy 实现
def argmax(x, axis=-1):
return np.argmax(x, axis=axis)
argmin
keras.backend.argmin(x, axis=-1)
返回指定轴的最小值的索引。
参数
- x: 张量或变量。
- axis: 执行归约操作的轴。
返回
一个张量。
Numpy 实现
def argmin(x, axis=-1):
return np.argmin(x, axis=axis)
square
keras.backend.square(x)
元素级的平方操作。
参数
- x: 张量或变量。
返回
一个张量。
abs
keras.backend.abs(x)
元素级的绝对值操作。
参数
- x: 张量或变量。
返回
一个张量。
sqrt
keras.backend.sqrt(x)
元素级的平方根操作。
参数
- x: 张量或变量。
返回
一个张量。
Numpy 实现
def sqrt(x):
y = np.sqrt(x)
y[np.isnan(y)] = 0.
return y
exp
keras.backend.exp(x)
元素级的指数运算操作。
参数
- x: 张量或变量。
返回
一个张量。
log
keras.backend.log(x)
元素级的对数运算操作。
参数
- x: 张量或变量。
返回
一个张量。
logsumexp
keras.backend.logsumexp(x, axis=None, keepdims=False)
计算 log(sum(exp(张量在某一轴的元素)))。
这个函数在数值上比 log(sum(exp(x))) 更稳定。 它避免了求大输入的指数造成的上溢,以及求小输入的对数造成的下溢。
参数
- x: 张量或变量。
- axis: 一个整数,需要归约的轴。
- keepdims: 布尔值,是否保留原尺寸。 如果
keepdims
为False
,则张量的秩减 1。 如果keepdims
为True
,缩小的维度保留为长度 1。
返回
归约后的张量。
Numpy 实现
def logsumexp(x, axis=None, keepdims=False):
if isinstance(axis, list):
axis = tuple(axis)
return sp.special.logsumexp(x, axis=axis, keepdims=keepdims)
round
keras.backend.round(x)
元素级地四舍五入到最接近的整数。
在平局的情况下,使用的舍入模式是「偶数的一半」。
参数
- x: 张量或变量。
返回
一个张量。
sign
keras.backend.sign(x)
元素级的符号运算。
参数
- x: 张量或变量。
返回
一个张量。
pow
keras.backend.pow(x, a)
元素级的指数运算操作。
参数
- x: 张量或变量。
- a: Python 整数。
返回
一个张量。
Numpy 实现
def pow(x, a=1.):
return np.power(x, a)
clip
keras.backend.clip(x, min_value, max_value)
元素级裁剪。
参数
- x: 张量或变量。
- min_value: Python 浮点,整数或张量。
- max_value: Python 浮点,整数或张量。
返回
一个张量。
Numpy 实现
def clip(x, min_value, max_value):
return np.clip(x, min_value, max_value)
equal
keras.backend.equal(x, y)
逐个元素对比两个张量的相等情况。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个布尔张量。
Numpy 实现
def equal(x, y):
return x == y
not_equal
keras.backend.not_equal(x, y)
逐个元素对比两个张量的不相等情况。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个布尔张量。
Numpy 实现
def not_equal(x, y):
return x != y
greater
keras.backend.greater(x, y)
逐个元素比对 (x > y) 的真值。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个布尔张量。
Numpy 实现
def greater(x, y):
return x > y
greater_equal
keras.backend.greater_equal(x, y)
逐个元素比对 (x >= y) 的真值。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个布尔张量。
Numpy 实现
def greater_equal(x, y):
return x >= y
less
keras.backend.less(x, y)
逐个元素比对 (x < y) 的真值。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个布尔张量。
Numpy 实现
def less(x, y):
return x < y
less_equal
keras.backend.less_equal(x, y)
逐个元素比对 (x <= y) 的真值。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个布尔张量。
Numpy 实现
def less_equal(x, y):
return x <= y
maximum
keras.backend.maximum(x, y)
逐个元素比对两个张量的最大值。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个张量。
Numpy 实现
def maximum(x, y):
return np.maximum(x, y)
minimum
keras.backend.minimum(x, y)
逐个元素比对两个张量的最小值。
参数
- x: 张量或变量。
- y: 张量或变量。
返回
一个张量。
Numpy 实现
def minimum(x, y):
return np.minimum(x, y)
sin
keras.backend.sin(x)
逐个元素计算 x 的 sin 值。
参数
- x: 张量或变量。
返回
一个张量。
cos
keras.backend.cos(x)
逐个元素计算 x 的 cos 值。
参数
- x: 张量或变量。
返回
一个张量。
normalize_batch_in_training
keras.backend.normalize_batch_in_training(x, gamma, beta, reduction_axes, epsilon=0.001)
计算批次的均值和标准差,然后在批次上应用批次标准化。
参数
- x: 输入张量或变量。
- gamma: 用于缩放输入的张量。
- beta: 用于中心化输入的张量。
- reduction_axes: 整数迭代,需要标准化的轴。
- epsilon: 模糊因子。
返回
长度为 3 个元组,(normalized_tensor, mean, variance)
。
batch_normalization
keras.backend.batch_normalization(x, mean, var, beta, gamma, epsilon=0.001)
在给定的 mean,var,beta 和 gamma 上应用批量标准化。
即,返回: output = (x - mean) / (sqrt(var) + epsilon) * gamma + beta
参数
- x: 输入张量或变量。
- mean: 批次的均值。
- var: 批次的方差。
- beta: 用于中心化输入的张量。
- gamma: 用于缩放输入的张量。
- epsilon: 模糊因子。
返回
一个张量。
concatenate
keras.backend.concatenate(tensors, axis=-1)
基于指定的轴,连接张量的列表。
参数
- tensors: 需要连接的张量列表。
- axis: 连接的轴。
返回
一个张量。
reshape
keras.backend.reshape(x, shape)
将张量重塑为指定的尺寸。
参数
- x: 张量或变量。
- shape: 目标尺寸元组。
返回
一个张量。
permute_dimensions
keras.backend.permute_dimensions(x, pattern)
重新排列张量的轴。
参数
- x: 张量或变量。
- pattern: 维度索引的元组,例如
(0, 2, 1)
。
返回
一个张量。
resize_images
keras.backend.resize_images(x, height_factor, width_factor, data_format)
调整 4D 张量中包含的图像的大小。
参数
- x: 需要调整的张量或变量。
- height_factor: 正整数。
- width_factor: 正整数。
- data_format: 字符串,
"channels_last"
或"channels_first"
。
返回
一个张量。
异常
- ValueError: 如果
data_format
既不是"channels_last"
也不是"channels_first"
。
resize_volumes
keras.backend.resize_volumes(x, depth_factor, height_factor, width_factor, data_format)
调整 5D 张量中包含的体积。
参数
- x: 需要调整的张量或变量。
- depth_factor: 正整数。
- height_factor: 正整数。
- width_factor: 正整数。
- data_format: 字符串,
"channels_last"
或"channels_first"
。
返回
一个张量。
异常
- ValueError: 如果
data_format
既不是"channels_last"
也不是"channels_first"
。
repeat_elements
keras.backend.repeat_elements(x, rep, axis)
沿某一轴重复张量的元素,如 np.repeat
。
如果 x
的尺寸为 (s1,s2,s3)
而 axis
为 1
, 则输出尺寸为 (s1,s2 * rep,s3)
。
参数
- x: 张量或变量。
- rep: Python 整数,重复次数。
- axis: 需要重复的轴。
返回
一个张量。
repeat
keras.backend.repeat(x, n)
重复一个 2D 张量。
如果 x
的尺寸为 (samples, dim)
并且 n
为 2
, 则输出的尺寸为 (samples, 2, dim)
。
参数
- x: 张量或变量。
- n: Python 整数,重复次数。
返回
一个张量。
arange
keras.backend.arange(start, stop=None, step=1, dtype='int32')
创建一个包含整数序列的 1D 张量。
该函数参数与 Theano 的 arange
函数的约定相同: 如果只提供了一个参数,那它就是 stop
参数。
返回的张量的默认类型是 int32
,以匹配 TensorFlow 的默认值。
参数
- start: 起始值。
- stop: 结束值。
- step: 两个连续值之间的差。
- dtype: 要使用的整数类型。
返回
一个整数张量。
tile
keras.backend.tile(x, n)
创建一个用 n
平铺 的 x
张量。
参数
- x: 张量或变量。
- n: 整数列表。长度必须与
x
中的维数相同。
返回
一个平铺的张量。
示例
>>> from keras import backend as K
>>> kvar = K.variable(np.random.random((2, 3)))
>>> kvar_tile = K.tile(K.eye(2), (2, 3))
>>> K.eval(kvar_tile)
array([[1., 0., 1., 0., 1., 0.],
[0., 1., 0., 1., 0., 1.],
[1., 0., 1., 0., 1., 0.],
[0., 1., 0., 1., 0., 1.]], dtype=float32)
Numpy 实现
def tile(x, n):
return np.tile(x, n)
flatten
keras.backend.flatten(x)
展平一个张量。
参数
- x: 张量或变量。
返回
一个重新调整为 1D 的张量。
batch_flatten
keras.backend.batch_flatten(x)
将一个 nD 张量变成一个 第 0 维相同的 2D 张量。
换句话说,它将批次中的每一个样本展平。
参数
- x: 张量或变量。
返回
一个张量。
expand_dims
keras.backend.expand_dims(x, axis=-1)
在索引 axis
轴,添加 1 个尺寸的维度。
参数
- x: 张量或变量。
- axis: 需要添加新的轴的位置。
返回
一个扩展维度的轴。
squeeze
keras.backend.squeeze(x, axis)
在索引 axis
轴,移除 1 个尺寸的维度。
参数
- x: 张量或变量。
- axis: 需要丢弃的轴。
返回
一个与 x
数据相同但维度降低的张量。
temporal_padding
keras.backend.temporal_padding(x, padding=(1, 1))
填充 3D 张量的中间维度。
参数
- x: 张量或变量。
- padding: 2 个整数的元组,在第一个维度的开始和结束处添加多少个零。 返回
一个填充的 3D 张量。
spatial_2d_padding
keras.backend.spatial_2d_padding(x, padding=((1, 1), (1, 1)), data_format=None)
填充 4D 张量的第二维和第三维。
参数
- x: 张量或变量。
- padding: 2 元组的元组,填充模式。
- data_format: 字符串,
"channels_last"
或"channels_first"
。
返回
一个填充的 4D 张量。
异常
- ValueError: 如果
data_format
既不是"channels_last"
也不是"channels_first"
。
spatial_3d_padding
keras.backend.spatial_3d_padding(x, padding=((1, 1), (1, 1), (1, 1)), data_format=None)
沿着深度、高度宽度三个维度填充 5D 张量。
分别使用 "padding[0]", "padding[1]" 和 "padding[2]" 来左右填充这些维度。
对于 'channels_last' 数据格式, 第 2、3、4 维将被填充。 对于 'channels_first' 数据格式, 第 3、4、5 维将被填充。
参数
- x: 张量或变量。
- padding: 3 元组的元组,填充模式。
- data_format: 字符串,
"channels_last"
或"channels_first"
。
返回
一个填充的 5D 张量。
异常
- ValueError: 如果
data_format
既不是"channels_last"
也不是"channels_first"
。
stack
keras.backend.stack(x, axis=0)
将秩 为 R
的张量列表堆叠成秩为 R + 1
的张量。
参数
- x: 张量列表。
- axis: 需要执行堆叠的轴。
返回
一个张量。
Numpy 实现
def stack(x, axis=0):
return np.stack(x, axis=axis)
one_hot
keras.backend.one_hot(indices, num_classes)
计算一个整数张量的 one-hot 表示。
参数
- indices: nD 整数,尺寸为
(batch_size, dim1, dim2, ... dim(n-1))
- num_classes: 整数,需要考虑的类别数。
返回
输入的 (n + 1)D one-hot 表示, 尺寸为 (batch_size, dim1, dim2, ... dim(n-1), num_classes)
。
reverse
keras.backend.reverse(x, axes)
沿指定的轴反转张量。
参数
- x: 需要反转的张量。
- axes: 整数或整数迭代。需要反转的轴。
返回
一个张量。
Numpy 实现
def reverse(x, axes):
if isinstance(axes, list):
axes = tuple(axes)
return np.flip(x, axes)
slice
keras.backend.slice(x, start, size)
从张量中提取一个切片。
参数
- x: 输入张量。
- start: 整数列表/元组,表明每个轴的起始切片索引位置。
- size: 整数列表/元组,表明每个轴上切片多少维度。
返回
一个切片张量:
new_x = x[start[0]: start[0] + size[0], ..., start[-1]: start[-1] + size[-1]]
异常
- ValueError: 如果维度和索引的尺寸不匹配。
Numpy 实现
def slice(x, start, size):
slices = [py_slice(i, i + j) for i, j in zip(start, size)]
return x[tuple(slices)]
get_value
keras.backend.get_value(x)
返回一个变量的值。
参数
- x: 输入变量。
返回
一个 Numpy 数组。
batch_get_value
keras.backend.batch_get_value(ops)
返回多个张量变量的值。
参数
- ops: 要运行的操作列表。
返回
一个 Numpy 数组的列表。
set_value
keras.backend.set_value(x, value)
使用 Numpy 数组设置变量的值。
参数
- x: 需要设置新值的变量。
- value: 需要设置的值, 一个尺寸相同的 Numpy 数组。
batch_set_value
keras.backend.batch_set_value(tuples)
一次设置多个张量变量的值。
参数
- tuples: 元组
(tensor, value)
的列表。value
应该是一个 Numpy 数组。
print_tensor
keras.backend.print_tensor(x, message='')
在评估时打印 message
和张量的值。
请注意,print_tensor
返回一个与 x
相同的新张量,应该在后面的代码中使用它。否则在评估过程中不会考虑打印操作。
示例
>>> x = K.print_tensor(x, message="x is: ")
参数
- x: 需要打印的张量。
- message: 需要与张量一起打印的消息。
返回
同一个不变的张量 x
。
function
keras.backend.function(inputs, outputs, updates=None)
实例化 Keras 函数。
gradients
keras.backend.gradients(loss, variables)
返回 variables
在 loss
上的梯度。
参数
- loss: 需要最小化的标量张量。
- variables: 变量列表。
返回
一个梯度张量。
stop_gradient
keras.backend.stop_gradient(variables)
返回 variables
,但是对于其他变量,其梯度为零。
参数
- variables: 需要考虑的张量或张量列表,任何的其他变量保持不变。
返回
单个张量或张量列表(取决于传递的参数), 与任何其他变量具有恒定的梯度。
rnn
keras.backend.rnn(step_function, inputs, initial_states, go_backwards=False, mask=None, constants=None, unroll=False, input_length=None)
在张量的时间维度迭代。
参数
- step_function: RNN 步骤函数,
- inputs: 尺寸为
(samples, ...)
的张量 (不含时间维度), 表示批次样品在某个时间步的输入。 - states: 张量列表。
- outputs: 尺寸为
(samples, output_dim)
的张量 (不含时间维度) - new_states: 张量列表,与
states
长度和尺寸相同。 列表中的第一个状态必须是前一个时间步的输出张量。 - inputs: 时序数据张量
(samples, time, ...)
(最少 3D)。 - initial_states: 尺寸为
(samples, output_dim)
的张量 (不含时间维度),包含步骤函数中使用的状态的初始值。 - go_backwards: 布尔值。如果为 True,以相反的顺序在时间维上进行迭代并返回相反的序列。
- mask: 尺寸为
(samples, time, 1)
的二进制张量,对于被屏蔽的每个元素都为零。 - constants: 每个步骤传递的常量值列表。
- unroll: 是否展开 RNN 或使用符号循环(依赖于后端的
while_loop
或scan
)。 - input_length: 与 TensorFlow 实现不相关。如果使用 Theano 展开,则必须指定。
返回
一个元组,(last_output, outputs, new_states)
。
- last_output: rnn 的最后输出,尺寸为
(samples, ...)
。 - outputs: 尺寸为
(samples, time, ...)
的张量,其中 每一项outputs[s, t]
是样本s
在时间t
的步骤函数输出值。 - new_states: 张量列表,有步骤函数返回的最后状态, 尺寸为
(samples, ...)
。
异常
- ValueError: 如果输入的维度小于 3。
- ValueError: 如果
unroll
为True
但输入时间步并不是固定的数字。 - ValueError: 如果提供了
mask
(非None
) 但未提供states
(len(states)
== 0)。
Numpy 实现
展示 Numpy 实现
```python def rnn(step_function, inputs, initial_states, go_backwards=False, mask=None, constants=None, unroll=False, input_length=None): if constants is None: constants = [] output_sample, _ = step_function(inputs[:, 0], initial_states + constants) if mask is not None: if mask.dtype != np.bool: mask = mask.astype(np.bool) if mask.shape != inputs.shape[:2]: raise ValueError( 'mask should have `shape=(samples, time)`, ' 'got {}'.format(mask.shape)) def expand_mask(mask_, x): # expand mask so that `mask[:, t].ndim == x.ndim` while mask_.ndim < x.ndim + 1: mask_ = np.expand_dims(mask_, axis=-1) return mask_ output_mask = expand_mask(mask, output_sample) states_masks = [expand_mask(mask, state) for state in initial_states] if input_length is None: input_length = inputs.shape[1] assert input_length == inputs.shape[1] time_index = range(input_length) if go_backwards: time_index = time_index[::-1] outputs = [] states_tm1 = initial_states # tm1 means "t minus one" as in "previous timestep" output_tm1 = np.zeros(output_sample.shape) for t in time_index: output_t, states_t = step_function(inputs[:, t], states_tm1 + constants) if mask is not None: output_t = np.where(output_mask[:, t], output_t, output_tm1) states_t = [np.where(state_mask[:, t], state_t, state_tm1) for state_mask, state_t, state_tm1 in zip(states_masks, states_t, states_tm1)] outputs.append(output_t) states_tm1 = states_t output_tm1 = output_t return outputs[-1], np.stack(outputs, axis=1), states_tm1 ```switch
keras.backend.switch(condition, then_expression, else_expression)
根据一个标量值在两个操作之间切换。
请注意,then_expression
和 else_expression
都应该是相同尺寸的符号张量。
参数
- condition: 张量 (
int
或bool
)。 - then_expression: 张量或返回张量的可调用函数。
- else_expression: 张量或返回张量的可调用函数。
返回
选择的张量。
异常
- ValueError: 如果
condition
的秩大于两个表达式的秩序。
Numpy 实现
def switch(condition, then_expression, else_expression):
cond_float = condition.astype(floatx())
while cond_float.ndim < then_expression.ndim:
cond_float = cond_float[..., np.newaxis]
return cond_float * then_expression + (1 - cond_float) * else_expression
in_train_phase
keras.backend.in_train_phase(x, alt, training=None)
在训练阶段选择 x
,其他阶段选择 alt
。
请注意 alt
应该与 x
尺寸相同。
参数
- x: 在训练阶段需要返回的 x (张量或返回张量的可调用函数)。
- alt: 在其他阶段需要返回的 alt (张量或返回张量的可调用函数)。
- training: 可选的标量张量 (或 Python 布尔值,或者 Python 整数), 以指定学习阶段。
返回
基于 training
标志,要么返回 x
,要么返回 alt
。 training
标志默认为 K.learning_phase()
。
in_test_phase
keras.backend.in_test_phase(x, alt, training=None)
在测试阶段选择 x
,其他阶段选择 alt
。
请注意 alt
应该与 x
尺寸相同。
参数
- x: 在训练阶段需要返回的 x (张量或返回张量的可调用函数)。
- alt: 在其他阶段需要返回的 alt (张量或返回张量的可调用函数)。
- training: 可选的标量张量 (或 Python 布尔值,或者 Python 整数), 以指定学习阶段。
返回
基于 K.learning_phase
,要么返回 x
,要么返回 alt
。
relu
keras.backend.relu(x, alpha=0.0, max_value=None)
ReLU 整流线性单位。
默认情况下,它返回逐个元素的 max(x, 0)
值。
参数
- x: 一个张量或变量。
- alpha: 一个标量,负数部分的斜率(默认为
0.
)。 - max_value: 饱和度阈值。
返回
一个张量。
Numpy 实现
def relu(x, alpha=0., max_value=None, threshold=0.):
if max_value is None:
max_value = np.inf
above_threshold = x * (x >= threshold)
above_threshold = np.clip(above_threshold, 0.0, max_value)
below_threshold = alpha * (x - threshold) * (x < threshold)
return below_threshold + above_threshold
elu
keras.backend.elu(x, alpha=1.0)
指数线性单元。
参数
- x: 用于计算激活函数的张量或变量。
- alpha: 一个标量,负数部分的斜率。
返回
一个张量。
Numpy 实现
def elu(x, alpha=1.):
return x * (x > 0) + alpha * (np.exp(x) - 1.) * (x < 0)
softmax
keras.backend.softmax(x)
张量的 Softmax 值。
参数
- x: 张量或变量。
返回
一个张量。
Numpy 实现
def softmax(x, axis=-1):
y = np.exp(x - np.max(x, axis, keepdims=True))
return y / np.sum(y, axis, keepdims=True)
softplus
keras.backend.softplus(x)
张量的 Softplus 值。
参数
- x: 张量或变量。
返回
一个张量。
Numpy 实现
def softplus(x):
return np.log(1. + np.exp(x))
softsign
keras.backend.softsign(x)
张量的 Softsign 值。
参数
- x: 张量或变量。
返回
一个张量。
Numpy 实现
def softsign(x):
return x / (1 + np.abs(x))
categorical_crossentropy
keras.backend.categorical_crossentropy(target, output, from_logits=False)
输出张量与目标张量之间的分类交叉熵。
参数
- target: 与
output
尺寸相同的张量。 - output: 由 softmax 产生的张量 (除非
from_logits
为 True, 在这种情况下output
应该是对数形式)。 - from_logits: 布尔值,
output
是 softmax 的结果, 还是对数形式的张量。
返回
输出张量。
sparse_categorical_crossentropy
keras.backend.sparse_categorical_crossentropy(target, output, from_logits=False)
稀疏表示的整数值目标的分类交叉熵。
参数
- target: 一个整数张量。
- output: 由 softmax 产生的张量 (除非
from_logits
为 True, 在这种情况下output
应该是对数形式)。 - from_logits: 布尔值,
output
是 softmax 的结果, 还是对数形式的张量。
返回
输出张量。
binary_crossentropy
keras.backend.binary_crossentropy(target, output, from_logits=False)
输出张量与目标张量之间的二进制交叉熵。
参数
- target: 与
output
尺寸相同的张量。 - output: 一个张量。
- from_logits:
output
是否是对数张量。 默认情况下,我们认为output
编码了概率分布。
返回
一个张量。
sigmoid
keras.backend.sigmoid(x)
逐个元素求 sigmoid 值。
参数
- x: 一个张量或变量。
返回
一个张量。
Numpy 实现
def sigmoid(x):
return 1. / (1. + np.exp(-x))
hard_sigmoid
keras.backend.hard_sigmoid(x)
分段的 sigmoid 线性近似。速度比 sigmoid 更快。
- 如果
x < -2.5
,返回0
。 - 如果
x > 2.5
,返回1
。 - 如果
-2.5 <= x <= 2.5
,返回0.2 * x + 0.5
。
参数
- x: 一个张量或变量。
返回
一个张量。
Numpy 实现
def hard_sigmoid(x):
y = 0.2 * x + 0.5
return np.clip(y, 0, 1)
tanh
keras.backend.tanh(x)
逐个元素求 tanh 值。
参数
- x: 一个张量或变量。
返回
一个张量。
Numpy 实现
def tanh(x):
return np.tanh(x)
dropout
keras.backend.dropout(x, level, noise_shape=None, seed=None)
将 x
中的某些项随机设置为零,同时缩放整个张量。
参数
- x: 张量
- level: 张量中将被设置为 0 的项的比例。
- noise_shape: 随机生成的 保留/丢弃 标志的尺寸, 必须可以广播到
x
的尺寸。 - seed: 保证确定性的随机种子。
返回
一个张量。
Numpy 实现
展示 Numpy 实现
```python def dropout(x, level, noise_shape=None, seed=None): if noise_shape is None: noise_shape = x.shape if learning_phase(): noise = np.random.choice([0, 1], noise_shape, replace=True, p=[level, 1 - level]) return x * noise / (1 - level) else: return x ```l2_normalize
keras.backend.l2_normalize(x, axis=None)
在指定的轴使用 L2 范式 标准化一个张量。
参数
- x: 张量或变量。
- axis: 需要执行标准化的轴。
返回
一个张量。
Numpy 实现
def l2_normalize(x, axis=-1):
y = np.max(np.sum(x ** 2, axis, keepdims=True), axis, keepdims=True)
return x / np.sqrt(y)
in_top_k
keras.backend.in_top_k(predictions, targets, k)
判断 targets
是否在 predictions
的前 k
个中。
参数
- predictions: 一个张量,尺寸为
(batch_size, classes)
,类型为float32
。 - targets: 一个 1D 张量,长度为
batch_size
,类型为int32
或int64
。 - k: 一个
int
,要考虑的顶部元素的数量。
返回
一个 1D 张量,长度为 batch_size
,类型为 bool
。 如果 predictions[i, targets[i]]
在 predictions[i]
的 top-k
值中, 则 output[i]
为 True
。
conv1d
keras.backend.conv1d(x, kernel, strides=1, padding='valid', data_format=None, dilation_rate=1)
1D 卷积。
参数
- x: 张量或变量。
- kernel: 核张量。
- strides: 步长整型。
- padding: 字符串,
"same"
,"causal"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 - dilation_rate: 整数膨胀率。
返回
一个张量,1D 卷积结果。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
conv2d
keras.backend.conv2d(x, kernel, strides=(1, 1), padding='valid', data_format=None, dilation_rate=(1, 1))
2D 卷积。
参数
- x: 张量或变量。
- kernel: 核张量。
- strides: 步长元组。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 对于输入/卷积核/输出,是否使用 Theano 或 TensorFlow/CNTK数据格式。 - dilation_rate: 2 个整数的元组。
返回
一个张量,2D 卷积结果。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
conv2d_transpose
keras.backend.conv2d_transpose(x, kernel, output_shape, strides=(1, 1), padding='valid', data_format=None)
2D 反卷积 (即转置卷积)。
参数
- x: 张量或变量。
- kernel: 核张量。
- output_shape: 表示输出尺寸的 1D 整型张量。
- strides: 步长元组。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 对于输入/卷积核/输出,是否使用 Theano 或 TensorFlow/CNTK数据格式。
返回
一个张量,转置的 2D 卷积的结果。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
separable_conv1d
keras.backend.separable_conv1d(x, depthwise_kernel, pointwise_kernel, strides=1, padding='valid', data_format=None, dilation_rate=1)
带可分离滤波器的 1D 卷积。
参数
- x: 输入张量。
- depthwise_kernel: 用于深度卷积的卷积核。
- pointwise_kernel: 1x1 卷积核。
- strides: 步长整数。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 - dilation_rate: 整数膨胀率。
返回
输出张量。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
separable_conv2d
keras.backend.separable_conv2d(x, depthwise_kernel, pointwise_kernel, strides=(1, 1), padding='valid', data_format=None, dilation_rate=(1, 1))
带可分离滤波器的 2D 卷积。
参数
- x: 输入张量。
- depthwise_kernel: 用于深度卷积的卷积核。
- pointwise_kernel: 1x1 卷积核。
- strides: 步长元组 (长度为 2)。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 - dilation_rate: 整数元组,可分离卷积的膨胀率。
返回
输出张量。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
depthwise_conv2d
keras.backend.depthwise_conv2d(x, depthwise_kernel, strides=(1, 1), padding='valid', data_format=None, dilation_rate=(1, 1))
带可分离滤波器的 2D 卷积。
参数
- x: 输入张量。
- depthwise_kernel: 用于深度卷积的卷积核。
- strides: 步长元组 (长度为 2)。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 - dilation_rate: 整数元组,可分离卷积的膨胀率。
返回
输出张量。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
conv3d
keras.backend.conv3d(x, kernel, strides=(1, 1, 1), padding='valid', data_format=None, dilation_rate=(1, 1, 1))
3D 卷积。
参数
- x: 张量或变量。
- kernel: 核张量。
- strides: 步长元组。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 - dilation_rate: 3 个整数的元组。
返回
一个张量,3D 卷积的结果。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
conv3d_transpose
keras.backend.conv3d_transpose(x, kernel, output_shape, strides=(1, 1, 1), padding='valid', data_format=None)
3D 反卷积 (即转置卷积)。
参数
- x: 输入张量。
- kernel: 核张量。
- output_shape: 表示输出尺寸的 1D 整数张量。
- strides: 步长元组。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 对于输入/卷积核/输出,是否使用 Theano 或 TensorFlow/CNTK数据格式。
返回
一个张量,3D 转置卷积的结果。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
pool2d
keras.backend.pool2d(x, pool_size, strides=(1, 1), padding='valid', data_format=None, pool_mode='max')
2D 池化。
参数
- x: 张量或变量。
- pool_size: 2 个整数的元组。
- strides: 2 个整数的元组。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 - pool_mode: 字符串,
"max"
或"avg"
。
返回
一个张量,2D 池化的结果。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。 - ValueError: if
pool_mode
既不是"max"
也不是"avg"
。
pool3d
keras.backend.pool3d(x, pool_size, strides=(1, 1, 1), padding='valid', data_format=None, pool_mode='max')
3D 池化。
参数
- x: 张量或变量。
- pool_size: 3 个整数的元组。
- strides: 3 个整数的元组。
- padding: 字符串,
"same"
或"valid"
。 - data_format: 字符串,
"channels_last"
或"channels_first"
。 - pool_mode: 字符串,
"max"
或"avg"
。
返回
一个张量,3D 池化的结果。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。 - ValueError: if
pool_mode
既不是"max"
也不是"avg"
。
local_conv1d
keras.backend.local_conv1d(inputs, kernel, kernel_size, strides, data_format=None)
在不共享权值的情况下,运用 1D 卷积。
参数
- inputs: 3D 张量,尺寸为 (batch_size, steps, input_dim)
- kernel: 卷积的非共享权重, 尺寸为 (output_items, feature_dim, filters)
- kernel_size: 一个整数的元组, 指定 1D 卷积窗口的长度。
- strides: 一个整数的元组, 指定卷积步长。
- data_format: 数据格式,channels_first 或 channels_last。
返回
运用不共享权重的 1D 卷积之后的张量,尺寸为 (batch_size, output_length, filters)。
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
local_conv2d
keras.backend.local_conv2d(inputs, kernel, kernel_size, strides, output_shape, data_format=None)
在不共享权值的情况下,运用 2D 卷积。
参数
- inputs: 如果
data_format='channels_first'
, 则为尺寸为 (batch_size, filters, new_rows, new_cols) 的 4D 张量。 如果data_format='channels_last'
, 则为尺寸为 (batch_size, new_rows, new_cols, filters) 的 4D 张量。 - kernel: 卷积的非共享权重, 尺寸为 (output_items, feature_dim, filters)
- kernel_size: 2 个整数的元组, 指定 2D 卷积窗口的宽度和高度。
- strides: 2 个整数的元组, 指定 2D 卷积沿宽度和高度方向的步长。
- output_shape: 元组 (output_row, output_col) 。
- data_format: 数据格式,channels_first 或 channels_last。
返回
一个 4D 张量。
- 如果
data_format='channels_first'
,尺寸为 (batch_size, filters, new_rows, new_cols)。 - 如果
data_format='channels_last'
,尺寸为 (batch_size, new_rows, new_cols, filters)
异常
- ValueError: 如果
data_format
既不是channels_last
也不是channels_first
。
bias_add
keras.backend.bias_add(x, bias, data_format=None)
给张量添加一个偏置向量。
参数
- x: 张量或变量。
- bias: 需要添加的偏置向量。
- data_format: 字符串,
"channels_last"
或"channels_first"
。
返回
输出张量。
异常
- ValueError: 以下两种情况之一:
- 无效的
data_format
参数。 - 无效的偏置向量尺寸。 偏置应该是一个
ndim(x)-1
维的向量或张量。
Numpy 实现
展示 Numpy 实现
```python def bias_add(x, y, data_format): if data_format == 'channels_first': if y.ndim > 1: y = np.reshape(y, y.shape[::-1]) for _ in range(x.ndim - y.ndim - 1): y = np.expand_dims(y, -1) else: for _ in range(x.ndim - y.ndim - 1): y = np.expand_dims(y, 0) return x + y ```random_normal
keras.backend.random_normal(shape, mean=0.0, stddev=1.0, dtype=None, seed=None)
返回正态分布值的张量。
参数
- shape: 一个整数元组,需要创建的张量的尺寸。
- mean: 一个浮点数,抽样的正态分布平均值。
- stddev: 一个浮点数,抽样的正态分布标准差。
- dtype: 字符串,返回的张量的数据类型。
- seed: 整数,随机种子。
返回
一个张量。
random_uniform
keras.backend.random_uniform(shape, minval=0.0, maxval=1.0, dtype=None, seed=None)
返回均匀分布值的张量。
参数
- shape: 一个整数元组,需要创建的张量的尺寸。
- minval: 一个浮点数,抽样的均匀分布下界。
- maxval: 一个浮点数,抽样的均匀分布上界。
- dtype: 字符串,返回的张量的数据类型。
- seed: 整数,随机种子。
返回
一个张量。
random_binomial
keras.backend.random_binomial(shape, p=0.0, dtype=None, seed=None)
返回随机二项分布值的张量。
参数
- shape: 一个整数元组,需要创建的张量的尺寸。
- p: 一个浮点数,
0. <= p <= 1
,二项分布的概率。 - dtype: 字符串,返回的张量的数据类型。
- seed: 整数,随机种子。
返回
一个张量。
truncated_normal
keras.backend.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=None, seed=None)
返回截断的随机正态分布值的张量。
生成的值遵循具有指定平均值和标准差的正态分布, 此外,其中数值大于平均值两个标准差的将被丢弃和重新挑选。
参数
- shape: 一个整数元组,需要创建的张量的尺寸。
- mean: 平均值。
- stddev: 标准差。
- dtype: 字符串,返回的张量的数据类型。
- seed: 整数,随机种子。
返回
一个张量。
ctc_label_dense_to_sparse
keras.backend.ctc_label_dense_to_sparse(labels, label_lengths)
将 CTC 标签从密集转换为稀疏表示。
参数
- labels: 密集 CTC 标签。
- label_lengths: 标签长度。
返回
一个表示标签的稀疏张量。
ctc_batch_cost
keras.backend.ctc_batch_cost(y_true, y_pred, input_length, label_length)
在每个批次元素上运行 CTC 损失算法。
参数
- y_true: 张量
(samples, max_string_length)
, 包含真实标签。 - y_pred: 张量
(samples, time_steps, num_categories)
, 包含预测值,或 softmax 输出。 - input_length: 张量
(samples, 1)
, 包含y_pred
中每个批次样本的序列长度。 - label_length: 张量
(samples, 1)
, 包含y_true
中每个批次样本的序列长度。
返回
尺寸为 (samples,1) 的张量,包含每一个元素的 CTC 损失。
ctc_decode
keras.backend.ctc_decode(y_pred, input_length, greedy=True, beam_width=100, top_paths=1, merge_repeated=False)
解码 softmax 的输出。
可以使用贪心搜索(也称为最优路径)或受限字典搜索。
参数
- y_pred: 张量
(samples, time_steps, num_categories)
, 包含预测值,或 softmax 输出。 - input_length: 张量
(samples,)
, 包含y_pred
中每个批次样本的序列长度。 - greedy: 如果为
True
,则执行更快速的最优路径搜索,而不使用字典。 - beam_width: 如果
greedy
为False
,将使用该宽度的 beam 搜索解码器搜索。 - top_paths: 如果
greedy
为alse
, 将返回多少条最可能的路径。
返回
- Tuple:
- List: 如果
greedy
为True
,返回包含解码序列的一个元素的列表。 如果为False
,返回最可能解码序列的top_paths
。 - Important: 空白标签返回为
-1
。包含每个解码序列的对数概率的张量(top_paths,)
。
control_dependencies
keras.backend.control_dependencies(control_inputs)
一个指定控制依赖的上下文管理器。
参数
- control_inputs: 一系列的对象的操作或张量,它们必须在执行上下文中定义的操作之前执行。它也可以是 None,表示清空控制依赖。
Returns
一个上下文管理器。
map_fn
keras.backend.map_fn(fn, elems, name=None, dtype=None)
将函数fn映射到元素 elems
上并返回输出。
参数
- fn: 将在每个元素上调用的可调用函数。
- elems: 张量。
- name: 映射节点在图中的字符串名称。
- dtype: 输出数据格式。
返回
数据类型为 dtype
的张量。
foldl
keras.backend.foldl(fn, elems, initializer=None, name=None)
使用 fn 归约 elems,以从左到右组合它们。
参数
- fn: 将在每个元素和一个累加器上调用的可调用函数,例如
lambda acc, x: acc + x
。 - elems: 张量。
- initializer: 第一个使用的值 (如果为 None,使用
elems[0]
)。 - name: foldl 节点在图中的字符串名称。
返回
与 initializer
类型和尺寸相同的张量。
foldr
keras.backend.foldr(fn, elems, initializer=None, name=None)
使用 fn 归约 elems,以从右到左组合它们。
参数
- fn: 将在每个元素和一个累加器上调用的可调用函数,例如
lambda acc, x: acc + x
。 - elems: 张量。
- initializer: 第一个使用的值 (如果为 None,使用
elems[-1]
)。 - name: foldr 节点在图中的字符串名称。
返回
与 initializer
类型和尺寸相同的张量。