文章目录
- 如果你的张量理解程度还停留在只能想象出三维的张量维度的话,相信这篇文章一定能让你彻底理解各种维度的张量!
- 理解第一步(一维张量):
- 理解第二步(二维张量):
- 理解第三步(三维张量):
- 理解第四步(高维张量):
- 当然,我们还可以通过简图通俗理解以及想象高维张量长啥样!:
理解第一步(一维张量):
对张量最初级的理解可以举例为python中的列表,这里的list就可以理解为一维张量:
list=[1,2,3,4,5]
我们也可以通过常见的张量生成函数torch.rand()来生成一位张量(torch.rand的作用通俗来说就是产生均匀分布的数据!
torch.rand()里面有几个数字那么就是生成几维张量!
例如这里生成一维张量:
import torch
# 生成一个有四个随机张量元素的一维张量
x = torch.rand(4)
print(x)
生成结果:
tensor([0.0235, 0.5347, 0.4886, 0.4133])
OK,到这你就完成了理解张量的第一步了!
矩阵就是理解张量的第一步
理解第二步(二维张量):
理解张量的第二步也不难,其实就可以理解为我们大学课程中学习的矩阵!
例如这个两行两列的矩阵B就可以看作一个二维张量:
同样我们用torch.rand()生成一个二维张量,再次强调,torch.rand()括号里面输入几个数那就是生成几维张量,这里我们输入两个数:
import torch
# 生成二维张量
x = torch.rand(2, 4)
print(x)
生成了个两行四列的张量(矩阵):
tensor([[0.0988, 0.4283, 0.6238, 0.5235],
[0.1831, 0.0804, 0.4846, 0.5573]])
二维张量常见于灰度图像当中,灰度图像即为一个二维张量数据!
理解第三步(三维张量):
理解三维张量也相对容易,二维张量可以看作一个平面,而三维张量就可以看作很多个二维张量平面两两平行摆放。
例如我们常见的RGB图像就可以理解为3个二维灰度图像并排摆放。
同样,我们用torch.rand()生成三维张量:
import torch
# rand括号里输入几个数就是生成几维张量
# 这里的(2,3,4)分别为(channel, height, width)
x = torch.rand(2, 3, 4)
print(x)
生成结果:
tensor([[[0.7657, 0.6422, 0.3424, 0.3820],
[0.0910, 0.5460, 0.1790, 0.5021],
[0.7869, 0.1970, 0.8491, 0.9219]],
[[0.8981, 0.2356, 0.3094, 0.0314],
[0.9902, 0.8836, 0.8478, 0.1059],
[0.5204, 0.3140, 0.9305, 0.3709]]])
这里通俗理解为,生成了2个平行摆放的3行4列的二维张量!
理解第四步(高维张量):
相信大多数人的想象力就到上面为止了,我们的张量其实不但有3维,还有33维、333维、333333维。。。
在理解高维张量之前,我先想到了俄罗斯套娃,哈哈……
其实高维张量就可以理解为俄罗斯套娃,单位为“套”
一“套”张量 = 一维张量
n’‘套’'张量 = n维张量
张量有专属的高维张量单位,那就是batch,相信跑过深度的同学都知道,训练网络之前都得调batchsize大小,其实本质上就是调的张量维度,维度高了计算机也会吃不消,毕竟理论上可以将batchsize调成9999999哈哈。
同样我们可以通过torch.rand()生成高维张量:
import torch
'''
这里的rand()括号里面的参数从第四维开始其实就是不断加入一个新的参数---batch!
例如我这里4维张量就是(batch, channel, heigth, width)
那如果是6维张量那就是(batch, batch, batch, channel, heigth, width)
不断地在前面加batch就好啦!
'''
x = torch.rand(2, 3, 4, 5)
print(x)
生成结果:
tensor([[[[0.3507, 0.2650, 0.4203, 0.6650, 0.9264],
[0.0372, 0.7468, 0.4858, 0.1521, 0.0588],
[0.7570, 0.2222, 0.6243, 0.1668, 0.2480],
[0.0759, 0.3870, 0.8078, 0.0019, 0.7025]],
[[0.9906, 0.7294, 0.1512, 0.2580, 0.9308],
[0.3207, 0.9315, 0.5995, 0.4642, 0.6465],
[0.8916, 0.8987, 0.0457, 0.9936, 0.0683],
[0.0167, 0.5090, 0.6432, 0.7025, 0.9202]],
[[0.6409, 0.1199, 0.6162, 0.7897, 0.9580],
[0.4882, 0.8031, 0.3614, 0.3455, 0.1440],
[0.2205, 0.9850, 0.4896, 0.3791, 0.6387],
[0.5410, 0.6443, 0.6870, 0.5172, 0.9992]]],
[[[0.6450, 0.5450, 0.5042, 0.3609, 0.7601],
[0.8083, 0.9958, 0.6853, 0.5153, 0.3479],
[0.2294, 0.9824, 0.3542, 0.6019, 0.7602],
[0.8068, 0.0328, 0.9990, 0.5347, 0.9353]],
[[0.2620, 0.0935, 0.3777, 0.4553, 0.3261],
[0.9518, 0.4248, 0.2831, 0.0669, 0.4071],
[0.3266, 0.9508, 0.4695, 0.6182, 0.0342],
[0.1116, 0.3320, 0.7976, 0.3882, 0.1616]],
[[0.2976, 0.7540, 0.2132, 0.0451, 0.0510],
[0.1716, 0.3817, 0.2071, 0.5533, 0.4266],
[0.1548, 0.7449, 0.8091, 0.3496, 0.6603],
[0.6606, 0.5282, 0.8939, 0.8655, 0.2171]]]])
用我们俄罗斯套娃的话术将就是:我们生成了个2套3层4行5列的四维张量!
当然我们还可以生成5套6套7套8套9层10行11列的张量哈哈,即:torch.rand(5,6,7,8,9,10,11)
当然,我们还可以通过简图通俗理解以及想象高维张量长啥样!:
例如:
三维张量为一套(1个batch),那么四维张量很简单就是把三维张量排成一列摆放:
好啦,三套张量排排放!这就是我们的四维张量啦!
那五维张量长啥样呢?我们来看看:
这就是五维张量啦,也就是3套四维张量并排放!
其实在这我们就可以看到张量的升维其实也是在降维!
怎么理解呢,其实不知道大家有没发现上面2张图的过程很像我们第三步的那张图,我们的三维张量在上图五维张量中就可以看作为当初最基础的单位:那个小方格。
同样如果是六维张量就是把五维张量这个“平面”平行叠多层,即是升维。
换言之,batch不断地充当最初的那个小方格了,只不过是大套包小套,小套变小格!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)