张量Tensor@最强分析

张量Tensor@最强分析,第1张

如果你的张量理解程度还停留在只能想象出三维的张量维度的话,相信这篇文章一定能让你彻底理解各种维度的张量!

文章目录
  • 如果你的张量理解程度还停留在只能想象出三维的张量维度的话,相信这篇文章一定能让你彻底理解各种维度的张量!
  • 理解第一步(一维张量):
  • 理解第二步(二维张量):
  • 理解第三步(三维张量):
  • 理解第四步(高维张量):
  • 当然,我们还可以通过简图通俗理解以及想象高维张量长啥样!:


理解第一步(一维张量):

对张量最初级的理解可以举例为python中的列表,这里的list就可以理解为一维张量:

list=[1,2,3,4,5]

我们也可以通过常见的张量生成函数torch.rand()来生成一位张量(torch.rand的作用通俗来说就是产生均匀分布的数据!

torch.rand()里面有几个数字那么就是生成几维张量!

例如这里生成一维张量:

import torch

# 生成一个有四个随机张量元素的一维张量
x = torch.rand(4)

print(x)

生成结果:

tensor([0.0235, 0.5347, 0.4886, 0.4133])

OK,到这你就完成了理解张量的第一步了!
矩阵就是理解张量的第一步


理解第二步(二维张量):

理解张量的第二步也不难,其实就可以理解为我们大学课程中学习的矩阵!
例如这个两行两列的矩阵B就可以看作一个二维张量:

同样我们用torch.rand()生成一个二维张量,再次强调,torch.rand()括号里面输入几个数那就是生成几维张量,这里我们输入两个数:

import torch

# 生成二维张量
x = torch.rand(2, 4)

print(x)

生成了个两行四列的张量(矩阵):

tensor([[0.0988, 0.4283, 0.6238, 0.5235],
        [0.1831, 0.0804, 0.4846, 0.5573]])

二维张量常见于灰度图像当中,灰度图像即为一个二维张量数据!


理解第三步(三维张量):

理解三维张量也相对容易,二维张量可以看作一个平面,而三维张量就可以看作很多个二维张量平面两两平行摆放。
例如我们常见的RGB图像就可以理解为3个二维灰度图像并排摆放。

同样,我们用torch.rand()生成三维张量:

import torch

# rand括号里输入几个数就是生成几维张量
# 这里的(234)分别为(channel, height, width)
x = torch.rand(2, 3, 4)

print(x)

生成结果:

tensor([[[0.7657, 0.6422, 0.3424, 0.3820],
         [0.0910, 0.5460, 0.1790, 0.5021],
         [0.7869, 0.1970, 0.8491, 0.9219]],

        [[0.8981, 0.2356, 0.3094, 0.0314],
         [0.9902, 0.8836, 0.8478, 0.1059],
         [0.5204, 0.3140, 0.9305, 0.3709]]])

这里通俗理解为,生成了2个平行摆放的3行4列的二维张量!


理解第四步(高维张量):

相信大多数人的想象力就到上面为止了,我们的张量其实不但有3维,还有33维、333维、333333维。。。

在理解高维张量之前,我先想到了俄罗斯套娃,哈哈……

其实高维张量就可以理解为俄罗斯套娃,单位为“套”
一“套”张量 = 一维张量
n’‘套’'张量 = n维张量

张量有专属的高维张量单位,那就是batch,相信跑过深度的同学都知道,训练网络之前都得调batchsize大小,其实本质上就是调的张量维度,维度高了计算机也会吃不消,毕竟理论上可以将batchsize调成9999999哈哈。

同样我们可以通过torch.rand()生成高维张量:

import torch

'''
这里的rand()括号里面的参数从第四维开始其实就是不断加入一个新的参数---batch!
例如我这里4维张量就是(batch, channel, heigth, width)
那如果是6维张量那就是(batch, batch, batch, channel, heigth, width)
不断地在前面加batch就好啦!
'''
x = torch.rand(2, 3, 4, 5)

print(x)

生成结果:

tensor([[[[0.3507, 0.2650, 0.4203, 0.6650, 0.9264],
          [0.0372, 0.7468, 0.4858, 0.1521, 0.0588],
          [0.7570, 0.2222, 0.6243, 0.1668, 0.2480],
          [0.0759, 0.3870, 0.8078, 0.0019, 0.7025]],

         [[0.9906, 0.7294, 0.1512, 0.2580, 0.9308],
          [0.3207, 0.9315, 0.5995, 0.4642, 0.6465],
          [0.8916, 0.8987, 0.0457, 0.9936, 0.0683],
          [0.0167, 0.5090, 0.6432, 0.7025, 0.9202]],

         [[0.6409, 0.1199, 0.6162, 0.7897, 0.9580],
          [0.4882, 0.8031, 0.3614, 0.3455, 0.1440],
          [0.2205, 0.9850, 0.4896, 0.3791, 0.6387],
          [0.5410, 0.6443, 0.6870, 0.5172, 0.9992]]],


        [[[0.6450, 0.5450, 0.5042, 0.3609, 0.7601],
          [0.8083, 0.9958, 0.6853, 0.5153, 0.3479],
          [0.2294, 0.9824, 0.3542, 0.6019, 0.7602],
          [0.8068, 0.0328, 0.9990, 0.5347, 0.9353]],

         [[0.2620, 0.0935, 0.3777, 0.4553, 0.3261],
          [0.9518, 0.4248, 0.2831, 0.0669, 0.4071],
          [0.3266, 0.9508, 0.4695, 0.6182, 0.0342],
          [0.1116, 0.3320, 0.7976, 0.3882, 0.1616]],

         [[0.2976, 0.7540, 0.2132, 0.0451, 0.0510],
          [0.1716, 0.3817, 0.2071, 0.5533, 0.4266],
          [0.1548, 0.7449, 0.8091, 0.3496, 0.6603],
          [0.6606, 0.5282, 0.8939, 0.8655, 0.2171]]]])

用我们俄罗斯套娃的话术将就是:我们生成了个2套3层4行5列的四维张量!

当然我们还可以生成5套6套7套8套9层10行11列的张量哈哈,即:torch.rand(5,6,7,8,9,10,11)


当然,我们还可以通过简图通俗理解以及想象高维张量长啥样!:

例如:
三维张量为一套(1个batch),那么四维张量很简单就是把三维张量排成一列摆放:

好啦,三套张量排排放!这就是我们的四维张量啦!

那五维张量长啥样呢?我们来看看:

这就是五维张量啦,也就是3套四维张量并排放!

其实在这我们就可以看到张量的升维其实也是在降维!
怎么理解呢,其实不知道大家有没发现上面2张图的过程很像我们第三步的那张图,我们的三维张量在上图五维张量中就可以看作为当初最基础的单位:那个小方格。

同样如果是六维张量就是把五维张量这个“平面”平行叠多层,即是升维。

换言之,batch不断地充当最初的那个小方格了,只不过是大套包小套,小套变小格!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/920902.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-16
下一篇 2022-05-16

发表评论

登录后才能评论

评论列表(0条)

保存