Pytorch中的nn.AdaptiveAvgPool2d

Pytorch中的nn.AdaptiveAvgPool2d,第1张

文章目录
  • 1 什么是池化?(Pooling)
  • 2 adaptivePooling和GeneralPooling
  • 3 代码调用

1 什么是池化?(Pooling)
  1. Pooling,池化层,又称下采样、汇聚层,是从样本中再选样本的过程。是为了缩减数据维度的 *** 作。
  2. Pooling主要分两类:①最大池化(Max pooling)②均值池化(Avg pooling)
    前者是取size×size中最大值。后者是采用平均值。
2 adaptivePooling和GeneralPooling
  • AdaptivePooling,自适应池化层。使用这种池化方式,核(kernal)和步长(stride)是函数根据输入的原始尺寸、目标尺寸自动计算出来的。

  • GeneralPooling,非自适应池化层,需要指定核的大小和步长。

3 代码调用
  • 无需自己实现底层代码,可以直接调用torch.nn.AdaptiveAvgPool2d(X)
  1. 非自适应方式的调用
# 最大池化
out = nn.MaxPool2d(kernel_size=2,stride=2)  

# 均值池化
out = nn.AvgPool2d(kernel_size=2,stride=2)  
  1. 自适应方式的调用
    这里只需要指定output_size, 一个参数代表W和H相同,也可以自定义(H,W)
# 自适应最大池化
out=nn.AdaptiveAvgPool2d(output_size=100)

# 自适应均值池化
out=nn.AdaptiveMaxPool2d((10, 15))

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/724410.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-26
下一篇 2022-04-26

发表评论

登录后才能评论

评论列表(0条)

保存