条件选取:torch.where(condition, x, y) → Tensor
返回从 x 或 y 中选择元素的张量,取决于 condition
操作定义:
举个例子:
>>> import torch >>> c = randn(2, 3) >>> c tensor([[ 0.0309, -1.5993, 0.1986], [-0.0699, -2.7813, -1.1828]]) >>> a = torch.ones(2, 3) >>> a tensor([[1., 1., 1.], [1., 1., 1.]]) >>> b = torch.zeros(2, 3) >>> b tensor([[0., 0., 0.], [0., 0., 0.]]) >>> torch.where(c > 0, a, b) tensor([[1., 0., 1.], [0., 0., 0.]])
把张量中的每个数据都代入条件中,如果其大于 0 就得出 a,其它情况就得出 b,同样是把 a 和 b 的相同位置的数据导出。
查表搜集:torch.gather(input, dim, index, out=None) → Tensor
沿给定轴 dim,将输入索引张量 index 指定位置的值进行聚合
对一个3维张量,输出可以定义为:
举个例子:
>>> a = torch.randn(4, 10) >>> b = a.topk(3, dim = 1) >>> b (tensor([[ 1.0134, 0.8785, -0.0373], [ 1.4378, 1.4022, 1.0115], [ 0.8985, 0.6795, 0.6439], [ 1.2758, 1.0294, 1.0075]]), tensor([[5, 7, 6], [2, 5, 8], [5, 9, 2], [7, 9, 6]])) >>> index = b[1] >>> index tensor([[5, 7, 6], [2, 5, 8], [5, 9, 2], [7, 9, 6]]) >>> label = torch.arange(10) + 100 >>> label tensor([100, 101, 102, 103, 104, 105, 106, 107, 108, 109]) >>> torch.gather(label.expand(4, 10), dim=1, index=index.long()) # 进行聚合操作 tensor([[105, 107, 106], [102, 105, 108], [105, 109, 102], [107, 109, 106]])
把 label 扩展为二维数据后,以 index 中的每个数据为索引,取出在 label 中索引位置的数据,再以 index 的的位置摆放。
比如,最后得出的结果中,第一行的 105 就是 label.expand(4, 10) 中第一行中索引为 5 的数据,提取出来后放在 5 所在的位置。
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍pytorch常见的Tensor类型详解,包括了pytorch常见的Tensor类型详解的使用技巧和注意事项,需要的朋友参考一下 Tensor有不同的数据类型,每种类型分别有对应CPU和GPU版本(HalfTensor除外)。默认的Tensor是FloatTensor,可通过torch.set_default_tensor_type修改默认tensor类型(如果默认类型为GPU te
通常你会遇到这种情况,以一种类型的 Observable 为起始,然后你想要将它转变为其它的东西。 示例 let stream$ = Rx.Observable .of(1,2,3) .flatMap((val) => { return Rx.Observable .of(val) .ajax({ url : url })
本文向大家介绍PyTorch中Tensor的维度变换实现,包括了PyTorch中Tensor的维度变换实现的使用技巧和注意事项,需要的朋友参考一下 对于 PyTorch 的基本数据对象 Tensor (张量),在处理问题时,需要经常改变数据的维度,以便于后期的计算和进一步处理,本文旨在列举一些维度变换的方法并举例,方便大家查看。 维度查看:torch.Tensor.size() 查看当前 tens
本文向大家介绍Pytorch 实现sobel算子的卷积操作详解,包括了Pytorch 实现sobel算子的卷积操作详解的使用技巧和注意事项,需要的朋友参考一下 卷积在pytorch中有两种实现,一种是torch.nn.Conv2d(),一种是torch.nn.functional.conv2d(),这两种方式本质都是执行卷积操作,对输入的要求也是一样的,首先需要输入的是一个torch.autogr
本文向大家介绍Python中常用的高阶函数实例详解,包括了Python中常用的高阶函数实例详解的使用技巧和注意事项,需要的朋友参考一下 前言 高阶函数指的是能接收函数作为参数的函数或类;python中有一些内置的高阶函数,在某些场合使用可以提高代码的效率. lambda 当在使用一些函数的时候,我们不需要显式定义函数名称,直接传入lambda匿名函数即可。lambda匿名函数通常和其他函数搭配使用
本文向大家介绍pytorch中的上采样以及各种反操作,求逆操作详解,包括了pytorch中的上采样以及各种反操作,求逆操作详解的使用技巧和注意事项,需要的朋友参考一下 import torch.nn.functional as F import torch.nn as nn F.upsample(input, size=None, scale_factor=None,mode='nearest',