GPU计算
到目前为止,我们一直在使用CPU计算。对复杂的神经网络和大规模的数据来说,使用CPU来计算可能不够高效。在本节中,我们将介绍如何使用单块NVIDIA GPU来计算。首先,需要确保已经安装好了至少一块NVIDIA GPU。然后,下载CUDA并按照提示设置好相应的路径(可参考附录中“使用AWS运行代码”一节)。这些准备工作都完成后,下面就可以通过nvidia-smi
命令来查看显卡信息了。
!nvidia-smi # 对Linux/macOS用户有效
接下来,我们需要确认安装了MXNet的GPU版本。安装方法见“获取和运行本书的代码”一节。运行本节中的程序需要至少2块GPU。
计算设备
MXNet可以指定用来存储和计算的设备,如使用内存的CPU或者使用显存的GPU。默认情况下,MXNet会将数据创建在内存,然后利用CPU来计算。在MXNet中,mx.cpu()
(或者在括号里填任意整数)表示所有的物理CPU和内存。这意味着,MXNet的计算会尽量使用所有的CPU核。但mx.gpu()
只代表一块GPU和相应的显存。如果有多块GPU,我们用mx.gpu(i)
来表示第$i$块GPU及相应的显存($i$从0开始)且mx.gpu(0)
和mx.gpu()
等价。
import mxnet as mx
from mxnet import nd
from mxnet.gluon import nn
mx.cpu(), mx.gpu(), mx.gpu(1)
NDArray
的GPU计算
在默认情况下,NDArray
存在内存上。因此,之前我们每次打印NDArray
的时候都会看到@cpu(0)
这个标识。
x = nd.array([1, 2, 3])
x
我们可以通过NDArray
的context
属性来查看该NDArray
所在的设备。
x.context
GPU上的存储
我们有多种方法将NDArray
存储在显存上。例如,我们可以在创建NDArray
的时候通过ctx
参数指定存储设备。下面我们将NDArray
变量a
创建在gpu(0)
上。注意,在打印a
时,设备信息变成了@gpu(0)
。创建在显存上的NDArray
只消耗同一块显卡的显存。我们可以通过nvidia-smi
命令查看显存的使用情况。通常,我们需要确保不创建超过显存上限的数据。
a = nd.array([1, 2, 3], ctx=mx.gpu())
a
假设至少有2块GPU,下面代码将会在gpu(1)
上创建随机数组。
B = nd.random.uniform(shape=(2, 3), ctx=mx.gpu(1))
B
除了在创建时指定,我们也可以通过copyto
函数和as_in_context
函数在设备之间传输数据。下面我们将内存上的NDArray
变量x
复制到gpu(0)
上。
y = x.copyto(mx.gpu())
y
z = x.as_in_context(mx.gpu())
z
需要区分的是,如果源变量和目标变量的context
一致,as_in_context
函数使目标变量和源变量共享源变量的内存或显存。
y.as_in_context(mx.gpu()) is y
而copyto
函数总是为目标变量开新的内存或显存。
y.copyto(mx.gpu()) is y
GPU上的计算
MXNet的计算会在数据的context
属性所指定的设备上执行。为了使用GPU计算,我们只需要事先将数据存储在显存上。计算结果会自动保存在同一块显卡的显存上。
(z + 2).exp() * y
注意,MXNet要求计算的所有输入数据都在内存或同一块显卡的显存上。这样设计的原因是CPU和不同的GPU之间的数据交互通常比较耗时。因此,MXNet希望用户确切地指明计算的输入数据都在内存或同一块显卡的显存上。例如,如果将内存上的NDArray
变量x
和显存上的NDArray
变量y
做运算,会出现错误信息。当我们打印NDArray
或将NDArray
转换成NumPy格式时,如果数据不在内存里,MXNet会将它先复制到内存,从而造成额外的传输开销。
Gluon的GPU计算
同NDArray
类似,Gluon的模型可以在初始化时通过ctx
参数指定设备。下面的代码将模型参数初始化在显存上。
net = nn.Sequential()
net.add(nn.Dense(1))
net.initialize(ctx=mx.gpu())
当输入是显存上的NDArray
时,Gluon会在同一块显卡的显存上计算结果。
net(y)
下面我们确认一下模型参数存储在同一块显卡的显存上。
net[0].weight.data()
小结
- MXNet可以指定用来存储和计算的设备,如使用内存的CPU或者使用显存的GPU。在默认情况下,MXNet会将数据创建在内存,然后利用CPU来计算。
- MXNet要求计算的所有输入数据都在内存或同一块显卡的显存上。
练习
- 试试大一点儿的计算任务,如大矩阵的乘法,看看使用CPU和GPU的速度区别。如果是计算量很小的任务呢?
- GPU上应如何读写模型参数?
参考文献
[1] CUDA下载地址。 https://developer.nvidia.com/cuda-downloads