在博客几乎没有torch.mean()三维维度如何计算的介绍,发布这篇文章记录一下。
torch.mean(input,dim=x)
dim 指定为0时,求得是列的平均值;指定为1时,求得是行的平均值.
# 二维
a = torch.arange(6) * 1.
b = a.reshape(2, 3)
print(b.shape)
print(b)
print(b.mean(dim=0).shape)
print(b.mean(dim=0))
print(b.mean(dim=1).shape)
print(b.mean(dim=1))
计算结果如下: torch.Size([2, 3]) tensor([[0., 1., 2.], [3., 4., 5.]]) torch.Size([3]) tensor([1.5000, 2.5000, 3.5000]) torch.Size([2]) tensor([1., 4.])
tip:二维很好理解,dim不同分别是按照行或者列求平均数
为了较好的理解三维的计算,选择(2,3,2)这个维度较小但是能够明显有助于区分理解的三维向量。
# 三维
a = torch.arange(12) * 1.
b = a.reshape(2, 3, 2)
print(type(b))
print(b)
print(b.mean(dim=0).shape)
print(b.mean(dim=0))
print("[[0+6/2,1+7/2],[2+8/2,3+9/2],[4+10/2,5+11/2]]") # 计算方法
print(b.mean(dim=1).shape)
print(b.mean(dim=1))
print("[[0+2+4/3,1+3+5/3],[6+8+10/3,7+9+11/3]]") # 计算方法
计算结果如下:
<class 'torch.Tensor'> tensor([[[ 0., 1.], [ 2., 3.], [ 4., 5.]], [[ 6., 7.], [ 8., 9.], [10., 11.]]]) torch.Size([3, 2]) tensor([[3., 4.], [5., 6.], [7., 8.]]) [[0+6/2,1+7/2],[2+8/2,3+9/2],[4+10/2,5+11/2]] torch.Size([2, 2]) tensor([[2., 3.], [8., 9.]]) [[0+2+4/3,1+3+5/3],[6+8+10/3,7+9+11/3]]
tip:下面说一说在实际应用中dim=1这种计算方式的理解。
一个三维向量,[2,3,2] 可以理解为有两行字符串,每行3个文字,每个文字的字向量维度为3的数字表示。
b.mean(dim=1) 的意义是将每行字符串中、每个字的相同维度的字向量求平均。