拼接张量:torch.cat() 、torch.stack()
在给定维度上对输入的张量序列 seq 进行连接操作
举个例子:
>>> import torch >>> x = torch.randn(2, 3) >>> x tensor([[-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764]]) >>> torch.cat((x, x, x), 0) # 在 0 维(纵向)进行拼接 tensor([[-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764], [-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764], [-0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764]]) >>> torch.cat((x, x, x), 1) # 在 1 维(横向)进行拼接 tensor([[-0.1997, -0.6900, 0.7039, -0.1997, -0.6900, 0.7039, -0.1997, -0.6900, 0.7039], [ 0.0268, -1.0140, -2.9764, 0.0268, -1.0140, -2.9764, 0.0268, -1.0140, -2.9764]]) >>> y1 = torch.randn(5, 3, 6) >>> y2 = torch.randn(5, 3, 6) >>> torch.cat([y1, y2], 2).size() torch.Size([5, 3, 12]) >>> torch.cat([y1, y2], 1).size() torch.Size([5, 6, 6])
对于需要拼接的张量,维度数量必须相同,进行拼接的维度的尺寸可以不同,但是其它维度的尺寸必须相同。
沿着一个新维度对输入张量序列进行连接。 序列中所有的张量都应该为相同形状
举个例子:
>>> x1 = torch.randn(2, 3) >>> x2 = torch.randn(2, 3) >>> torch.stack((x1, x2), 0).size() # 在 0 维插入一个维度,进行区分拼接 torch.Size([2, 2, 3]) >>> torch.stack((x1, x2), 1).size() # 在 1 维插入一个维度,进行组合拼接 torch.Size([2, 2, 3]) >>> torch.stack((x1, x2), 2).size() torch.Size([2, 3, 2]) >>> torch.stack((x1, x2), 0) tensor([[[-0.3499, -0.6124, 1.4332], [ 0.1516, -1.5439, -0.1758]], [[-0.4678, -1.1430, -0.5279], [-0.4917, -0.6504, 2.2512]]]) >>> torch.stack((x1, x2), 1) tensor([[[-0.3499, -0.6124, 1.4332], [-0.4678, -1.1430, -0.5279]], [[ 0.1516, -1.5439, -0.1758], [-0.4917, -0.6504, 2.2512]]]) >>> torch.stack((x1, x2), 2) tensor([[[-0.3499, -0.4678], [-0.6124, -1.1430], [ 1.4332, -0.5279]], [[ 0.1516, -0.4917], [-1.5439, -0.6504], [-0.1758, 2.2512]]])
把相同形状的张量合并,并根据提供的维度序列在相应位置插入维度,方法会根据位置来排列数据。代码中,根据第 0 维和第 1 维来进行合并时,虽然合并后的张量维度和尺寸相等,但是数据的位置并不是相同的。
拆分张量:torch.split()、torch.chunk()
将输入张量分割成相等形状的 chunks(如果可分)。 如果沿指定维的张量形状大小不能被 split_size 整分, 则最后一个分块会小于其它分块。
举个例子:
>>> x = torch.randn(3, 10, 6) >>> a, b, c = x.split(1, 0) # 在 0 维进行间隔维 1 的拆分 >>> a.size(), b.size(), c.size() (torch.Size([1, 10, 6]), torch.Size([1, 10, 6]), torch.Size([1, 10, 6])) >>> d, e = x.split(2, 0) # 在 0 维进行间隔维 2 的拆分 >>> d.size(), e.size() (torch.Size([2, 10, 6]), torch.Size([1, 10, 6]))
把张量在 0 维度上以间隔 1 来拆分时,其中 x 在 0 维度上的尺寸为 3,就可以分成 3 份。
把张量在 0 维度上以间隔 2 来拆分时,只能分成 2 份,且只能把前面部分先以间隔 2 来拆分,后面不足 2 的部分就直接作为一个分块。
在给定维度(轴)上将输入张量进行分块儿
直接用上面的数据来举个例子:
>>> l, m, n = x.chunk(3, 0) # 在 0 维上拆分成 3 份 >>> l.size(), m.size(), n.size() (torch.Size([1, 10, 6]), torch.Size([1, 10, 6]), torch.Size([1, 10, 6])) >>> u, v = x.chunk(2, 0) # 在 0 维上拆分成 2 份 >>> u.size(), v.size() (torch.Size([2, 10, 6]), torch.Size([1, 10, 6]))
把张量在 0 维度上拆分成 3 部分时,因为尺寸正好为 3,所以每个分块的间隔相等,都为 1。
把张量在 0 维度上拆分成 2 部分时,无法平均分配,以上面的结果来看,可以看成是,用 0 维度的尺寸除以需要拆分的份数,把余数作为最后一个分块的间隔大小,再把前面的分块以相同的间隔拆分。
在某一维度上拆分的份数不能比这一维度的尺寸大
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍PyTorch中Tensor的维度变换实现,包括了PyTorch中Tensor的维度变换实现的使用技巧和注意事项,需要的朋友参考一下 对于 PyTorch 的基本数据对象 Tensor (张量),在处理问题时,需要经常改变数据的维度,以便于后期的计算和进一步处理,本文旨在列举一些维度变换的方法并举例,方便大家查看。 维度查看:torch.Tensor.size() 查看当前 tens
本文向大家介绍Pytorch Tensor的索引与切片例子,包括了Pytorch Tensor的索引与切片例子的使用技巧和注意事项,需要的朋友参考一下 1. Pytorch风格的索引 根据Tensor的shape,从前往后索引,依次在每个维度上做索引。 示例代码: 上述代码创建了一个shape=[4, 3, 28, 28]的Tensor,我们可以理解为4张图片,每张图片有3个通道,每个通道是28x
本文向大家介绍Java中拆分和拼接字符串,包括了Java中拆分和拼接字符串的使用技巧和注意事项,需要的朋友参考一下 要在Java中拆分和连接字符串,请使用以下示例中的split和join方法- 示例 输出结果 一个名为Demo的类包含主函数。这里定义了一个字符串对象,并根据直到最后一个单词的值对其进行分割。循环遍历一个for循环,并根据该值分割字符串。同样,使用join函数连接字符串。相关消息显示
本文向大家介绍PyTorch之图像和Tensor填充的实例,包括了PyTorch之图像和Tensor填充的实例的使用技巧和注意事项,需要的朋友参考一下 在PyTorch中可以对图像和Tensor进行填充,如常量值填充,镜像填充和复制填充等。在图像预处理阶段设置图像边界填充的方式如下: 对Tensor进行填充的方式如下: 这里需要注意一点的是,transforms.Pad只能对PIL图像格式进行填充
本文向大家介绍详解PyTorch中Tensor的高阶操作,包括了详解PyTorch中Tensor的高阶操作的使用技巧和注意事项,需要的朋友参考一下 条件选取:torch.where(condition, x, y) → Tensor 返回从 x 或 y 中选择元素的张量,取决于 condition 操作定义: 举个例子: 把张量中的每个数据都代入条件中,如果其大于 0 就得出 a,其它情况就得出
本文向大家介绍pytorch常见的Tensor类型详解,包括了pytorch常见的Tensor类型详解的使用技巧和注意事项,需要的朋友参考一下 Tensor有不同的数据类型,每种类型分别有对应CPU和GPU版本(HalfTensor除外)。默认的Tensor是FloatTensor,可通过torch.set_default_tensor_type修改默认tensor类型(如果默认类型为GPU te