当前位置: 首页 > 教程 > PyTorch >

PyTorch术语

精华
小牛编辑
203浏览
2023-03-14

在本章中,我们将了解PyTorch中一些最常用的术语。

PyTorch NumPy

PyTorch张量与NumPy阵列相同。张量(tensor)是一个n维数组,就PyTorch而言,它提供了许多在张量上运算的函数。

PyTorch张量通常利用GPU来加速其数值计算。在PyTorch中创建的这些张量可用于将双层网络适合随机数据。用户可以手动实现通过网络的前向和后向传递。

变量和Autograd

使用自动编程时,网络的正向传递将定义计算图形 - 图形中的节点将是张量,边缘将是从输入张量产生输出张量的函数。

PyTorch张量可以创建为变量对象,其中变量表示计算图中的节点。

动态图

静态图很好,因为用户可以预先优化图形。如果程序员一遍又一遍地重复使用相同的图形,则可以保持这种可能代价高昂的前期优化,因为相同的图形会一遍又一遍地重新运行。

它们之间的主要区别在于Tensor Flow的计算图是静态的,PyTorch使用动态计算图。

optim包

PyTorch中的optim包提取了一种优化算法的思想,该算法以多种方式实现,并提供了常用优化算法的说明。它可以在import语句中调用。

多处理

多处理支持相同的操作,因此所有张量都可以在多个处理器上运行。队列将其数据移动到共享内存中,并仅向另一个进程发送句柄。