数据操作
在深度学习中,我们通常会频繁地对数据进行操作。作为动手学深度学习的基础,本节将介绍如何对内存中的数据进行操作。
在MXNet中,NDArray
是一个类,也是存储和变换数据的主要工具。为了简洁,本书常将NDArray
实例直接称作NDArray
。如果你之前用过NumPy,你会发现NDArray
和NumPy的多维数组非常类似。然而,NDArray
提供GPU计算和自动求梯度等更多功能,这些使NDArray
更加适合深度学习。
创建NDArray
我们先介绍NDArray
的最基本功能。如果对这里用到的数学操作不是很熟悉,可以参阅附录中“数学基础”一节。
首先从MXNet导入ndarray
模块。这里的nd
是ndarray
的缩写形式。
from mxnet import nd
然后我们用arange
函数创建一个行向量。
x = nd.arange(12)
x
这时返回了一个NDArray
实例,其中包含了从0开始的12个连续整数。从打印x
时显示的属性<NDArray 12 @cpu(0)>
可以看出,它是长度为12的一维数组,且被创建在CPU使用的内存上。其中“@cpu(0)”里的0没有特别的意义,并不代表特定的核。
我们可以通过shape
属性来获取NDArray
实例的形状。
x.shape
我们也能够通过size
属性得到NDArray
实例中元素(element)的总数。
x.size
下面使用reshape
函数把行向量x
的形状改为(3, 4),也就是一个3行4列的矩阵,并记作X
。除了形状改变之外,X
中的元素保持不变。
X = x.reshape((3, 4))
X
注意X
属性中的形状发生了变化。上面x.reshape((3, 4))
也可写成x.reshape((-1, 4))
或x.reshape((3, -1))
。由于x
的元素个数是已知的,这里的-1
是能够通过元素个数和其他维度的大小推断出来的。
接下来,我们创建一个各元素为0,形状为(2, 3, 4)的张量。实际上,之前创建的向量和矩阵都是特殊的张量。
nd.zeros((2, 3, 4))
类似地,我们可以创建各元素为1的张量。
nd.ones((3, 4))
我们也可以通过Python的列表(list)指定需要创建的NDArray
中每个元素的值。
Y = nd.array([[2, 1, 4, 3], [1, 2, 3, 4], [4, 3, 2, 1]])
Y
有些情况下,我们需要随机生成NDArray
中每个元素的值。下面我们创建一个形状为(3, 4)的NDArray
。它的每个元素都随机采样于均值为0、标准差为1的正态分布。
nd.random.normal(0, 1, shape=(3, 4))
运算
NDArray
支持大量的运算符(operator)。例如,我们可以对之前创建的两个形状为(3, 4)的NDArray
做按元素加法。所得结果形状不变。
X + Y
按元素乘法:
X * Y
按元素除法:
X / Y
按元素做指数运算:
Y.exp()
除了按元素计算外,我们还可以使用dot
函数做矩阵乘法。下面将X
与Y
的转置做矩阵乘法。由于X
是3行4列的矩阵,Y
转置为4行3列的矩阵,因此两个矩阵相乘得到3行3列的矩阵。
nd.dot(X, Y.T)
我们也可以将多个NDArray
连结(concatenate)。下面分别在行上(维度0,即形状中的最左边元素)和列上(维度1,即形状中左起第二个元素)连结两个矩阵。可以看到,输出的第一个NDArray
在维度0的长度($6$)为两个输入矩阵在维度0的长度之和($3+3$),而输出的第二个NDArray
在维度1的长度($8$)为两个输入矩阵在维度1的长度之和($4+4$)。
nd.concat(X, Y, dim=0), nd.concat(X, Y, dim=1)
使用条件判断式可以得到元素为0或1的新的NDArray
。以X == Y
为例,如果X
和Y
在相同位置的条件判断为真(值相等),那么新的NDArray
在相同位置的值为1;反之为0。
X == Y
对NDArray
中的所有元素求和得到只有一个元素的NDArray
。
X.sum()
我们可以通过asscalar
函数将结果变换为Python中的标量。下面例子中X
的$L_2$范数结果同上例一样是单元素NDArray
,但最后结果变换成了Python中的标量。
X.norm().asscalar()
我们也可以把Y.exp()
、X.sum()
、X.norm()
等分别改写为nd.exp(Y)
、nd.sum(X)
、nd.norm(X)
等。
广播机制
前面我们看到如何对两个形状相同的NDArray
做按元素运算。当对两个形状不同的NDArray
按元素运算时,可能会触发广播(broadcasting)机制:先适当复制元素使这两个NDArray
形状相同后再按元素运算。
定义两个NDArray
:
A = nd.arange(3).reshape((3, 1))
B = nd.arange(2).reshape((1, 2))
A, B
由于A
和B
分别是3行1列和1行2列的矩阵,如果要计算A + B
,那么A
中第一列的3个元素被广播(复制)到了第二列,而B
中第一行的2个元素被广播(复制)到了第二行和第三行。如此,就可以对2个3行2列的矩阵按元素相加。
A + B
索引
在NDArray
中,索引(index)代表了元素的位置。NDArray
的索引从0开始逐一递增。例如,一个3行2列的矩阵的行索引分别为0、1和2,列索引分别为0和1。
在下面的例子中,我们指定了NDArray
的行索引截取范围[1:3]
。依据左闭右开指定范围的惯例,它截取了矩阵X
中行索引为1和2的两行。
X[1:3]
我们可以指定NDArray
中需要访问的单个元素的位置,如矩阵中行和列的索引,并为该元素重新赋值。
X[1, 2] = 9
X
当然,我们也可以截取一部分元素,并为它们重新赋值。在下面的例子中,我们为行索引为1的每一列元素重新赋值。
X[1:2, :] = 12
X
运算的内存开销
在前面的例子里我们对每个操作新开内存来存储运算结果。举个例子,即使像Y = X + Y
这样的运算,我们也会新开内存,然后将Y
指向新内存。为了演示这一点,我们可以使用Python自带的id
函数:如果两个实例的ID一致,那么它们所对应的内存地址相同;反之则不同。
before = id(Y)
Y = Y + X
id(Y) == before
如果想指定结果到特定内存,我们可以使用前面介绍的索引来进行替换操作。在下面的例子中,我们先通过zeros_like
创建和Y
形状相同且元素为0的NDArray
,记为Z
。接下来,我们把X + Y
的结果通过[:]
写进Z
对应的内存中。
Z = Y.zeros_like()
before = id(Z)
Z[:] = X + Y
id(Z) == before
实际上,上例中我们还是为X + Y
开了临时内存来存储计算结果,再复制到Z
对应的内存。如果想避免这个临时内存开销,我们可以使用运算符全名函数中的out
参数。
nd.elemwise_add(X, Y, out=Z)
id(Z) == before
如果X
的值在之后的程序中不会复用,我们也可以用 X[:] = X + Y
或者 X += Y
来减少运算的内存开销。
before = id(X)
X += Y
id(X) == before
NDArray
和NumPy相互变换
我们可以通过array
函数和asnumpy
函数令数据在NDArray
和NumPy格式之间相互变换。下面将NumPy实例变换成NDArray
实例。
import numpy as np
P = np.ones((2, 3))
D = nd.array(P)
D
再将NDArray
实例变换成NumPy实例。
D.asnumpy()
小结
NDArray
是MXNet中存储和变换数据的主要工具。- 可以轻松地对
NDArray
创建、运算、指定索引,并与NumPy之间相互变换。
练习
- 运行本节中的代码。将本节中条件判断式
X == Y
改为X < Y
或X > Y
,看看能够得到什么样的NDArray
。 - 将广播机制中按元素运算的两个
NDArray
替换成其他形状,结果是否和预期一样?