[开发技巧]·AdaptivePooling与Max/AvgPooling相互转换
[开发技巧]·AdaptivePooling与Max/AvgPooling相互转换
个人网站--> http://www.yansongsong.cn/
1.问题描述
自适应池化Adaptive Pooling是PyTorch的一种池化层,根据1D,2D,3D以及Max与Avg可分为六种形式。
自适应池化Adaptive Pooling与标准的Max/AvgPooling区别在于,自适应池化Adaptive Pooling会根据输入的参数来控制输出output_size,而标准的Max/AvgPooling是通过kernel_size,stride与padding来计算output_size:
output_size = ceil ( (input_size+2∗padding−kernel_size)/stride)+1
Adaptive Pooling仅存在与PyTorch,如果需要将包含Adaptive Pooling的代码移植到Keras或者TensorFlow就会遇到问题。
本文将提供一个公式,可以简便的将AdaptivePooling准换为Max/AvgPooling,便于大家移植使用。
2.原理讲解
我们已经知道了普通Max/AvgPooling计算公式为:output_size = ceil ( (input_size+2∗padding−kernel_size)/stride)+1
当我们使用Adaptive Pooling时,这个问题就变成了由已知量input_size,output_size求解kernel_size与stride
为了简化问题,我们将padding设为0(后面我们可以发现源码里也是这样操作的c++源码部分)
stride = floor ( (input_size / (output_size) )
kernel_size = input_size − (output_size−1) * stride
3.实战演示
下面我们通过一个实战来操作一下,验证公式的正确性
import torch as t
import math
import numpy as np alist = t.randn(2,6,7) inputsz = np.array(alist.shape[1:])
outputsz = np.array([2,3]) stridesz = np.floor(inputsz/outputsz).astype(np.int32) kernelsz = inputsz-(outputsz-1)*stridesz adp = t.nn.AdaptiveAvgPool2d(list(outputsz))
avg = t.nn.AvgPool2d(kernel_size=list(kernelsz),stride=list(stridesz))
adplist = adp(alist)
avglist = avg(alist) print(alist)
print(adplist)
print(avglist)
输出结果
tensor([[[ 0.9095, 0.8043, 0.4052, 0.3410, 1.8831, 0.8703, -0.0839],
[ 0.3300, -1.2951, -1.8148, -1.1118, -1.1091, 1.5657, 0.7093],
[-0.6788, -1.2790, -0.6456, 1.9085, 0.8627, 1.1711, 0.5614],
[-0.0129, -0.6447, -0.6685, -1.2087, 0.8535, -1.4802, 0.5274],
[ 0.7347, 0.0374, -1.7286, -0.7225, -0.4257, -0.0819, -0.9878],
[-1.2553, -1.0774, -0.1936, -1.4741, -0.9028, -0.1584, -0.6612]],
[[-0.3473, 1.0599, -1.5744, -0.2023, -0.5336, 0.5512, -0.3200],
[-0.2518, 0.1714, 0.6862, 0.3334, -1.2693, -1.3348, -0.0878],
[ 1.0515, 0.1385, 0.4050, 0.8554, 1.0170, -2.6985, 0.3586],
[-0.1977, 0.8298, 1.6110, -0.9102, 0.7129, 0.2088, 0.9553],
[-0.2218, -0.7234, -0.4407, 1.0369, -0.8884, 0.3684, 1.2134],
[ 0.5812, 1.1974, -0.1584, -0.0903, -0.0628, 3.3684, 2.0330]]])
tensor([[[-0.3627, 0.0799, 0.7145],
[-0.5343, -0.7190, -0.3686]],
[[ 0.1488, -0.0314, -0.4797],
[ 0.2753, 0.0900, 0.8788]]])
tensor([[[-0.3627, 0.0799, 0.7145],
[-0.5343, -0.7190, -0.3686]],
[[ 0.1488, -0.0314, -0.4797],
[ 0.2753, 0.0900, 0.8788]]])
可以发现adp = t.nn.AdaptiveAvgPool2d(list(outputsz))与avg = t.nn.AvgPool2d(kernel_size=list(kernelsz),stride=list(stridesz))结果一致
为了防止这是偶然现象,修改参数,使用AdaptiveAvgPool1d进行试验
import torch as t
import math
import numpy as np alist = t.randn(2,3,9) inputsz = np.array(alist.shape[2:])
outputsz = np.array([4]) stridesz = np.floor(inputsz/outputsz).astype(np.int32) kernelsz = inputsz-(outputsz-1)*stridesz adp = t.nn.AdaptiveAvgPool1d(list(outputsz))
avg = t.nn.AvgPool1d(kernel_size=list(kernelsz),stride=list(stridesz))
adplist = adp(alist)
avglist = avg(alist) print(alist)
print(adplist)
print(avglist)
输出结果
tensor([[[ 1.3405, 0.3509, -1.5119, -0.1730, 0.6971, 0.3399, -0.0874,
-1.2417, 0.6564],
[ 2.0482, 0.3528, 0.0703, 1.2012, -0.8829, -0.3156, 1.0603,
-0.7722, -0.6086],
[ 1.0470, -0.9374, 0.3594, -0.8068, 0.5126, 1.4135, 0.3538,
-1.0973, 0.3046]],
[[-0.1688, 0.7300, -0.3457, 0.5645, -1.2507, -1.9724, 0.4469,
-0.3362, 0.7910],
[ 0.5676, -0.0614, -0.0243, 0.1529, 0.8276, 0.2452, -0.1783,
0.7460, 0.2577],
[-0.1433, -0.7047, -0.4883, 1.2414, -1.4316, 0.9704, -1.7088,
-0.0094, -0.3739]]])
tensor([[[ 0.0598, -0.3293, 0.3165, -0.2242],
[ 0.8237, 0.1295, -0.0461, -0.1069],
[ 0.1563, 0.0217, 0.7600, -0.1463]],
[[ 0.0718, -0.3440, -0.9254, 0.3006],
[ 0.1606, 0.3187, 0.2982, 0.2751],
[-0.4454, -0.2262, -0.7233, -0.6973]]])
tensor([[[ 0.0598, -0.3293, 0.3165, -0.2242],
[ 0.8237, 0.1295, -0.0461, -0.1069],
[ 0.1563, 0.0217, 0.7600, -0.1463]],
[[ 0.0718, -0.3440, -0.9254, 0.3006],
[ 0.1606, 0.3187, 0.2982, 0.2751],
[-0.4454, -0.2262, -0.7233, -0.6973]]])
可以发现adp = t.nn.AdaptiveAvgPool1d(list(outputsz))与avg = t.nn.AvgPool1d(kernel_size=list(kernelsz),stride=list(stridesz))结果也是相同的。
4.总结分析
在以后遇到别人代码使用Adaptive Pooling,可以通过这两个公式转换为标准的Max/AvgPooling,从而应用到不同的学习框架中
stride = floor ( (input_size / (output_size) )
kernel_size = input_size − (output_size−1) * stride
只需要知道输入的input_size ,就可以推导出stride 与kernel_size ,从而替换为标准的Max/AvgPooling
Hope this helps
[开发技巧]·AdaptivePooling与Max/AvgPooling相互转换的更多相关文章
- iOS开发技巧系列---详解KVC(我告诉你KVC的一切)
KVC(Key-value coding)键值编码,单看这个名字可能不太好理解.其实翻译一下就很简单了,就是指iOS的开发中,可以允许开发者通过Key名直接访问对象的属性,或者给对象的属性赋值.而不需 ...
- Unity 游戏开发技巧集锦之制作一个望远镜与查看器摄像机
Unity 游戏开发技巧集锦之制作一个望远镜与查看器摄像机 Unity中制作一个望远镜 本节制作的望远镜,在鼠标左键按下时,看到的视图会变大:当不再按下的时候,会慢慢缩小成原来的视图.游戏中时常出现的 ...
- [开发技巧]·Python极简实现滑动平均滤波(基于Numpy.convolve)
[开发技巧]·Python极简实现滑动平均滤波(基于Numpy.convolve) 1.滑动平均概念 滑动平均滤波法(又称递推平均滤波法),时把连续取N个采样值看成一个队列 ,队列的长度固定为N ...
- Mysql - 开发技巧(二)
本文中的涉及到的表在https://github.com/YangBaohust/my_sql中 本文衔接Mysql - 巧用join来优化sql(https://www.cnblogs.com/dd ...
- javascript的10个开发技巧
总结10个提高开发效率的JavaScript开发技巧. 1.生成随机的uid. const genUid = () => { var length = 20; var soupLength = ...
- SQL开发技巧(二)
本系列文章旨在收集在开发过程中遇到的一些常用的SQL语句,然后整理归档,本系列文章基于SQLServer系列,且版本为SQLServer2005及以上-- 文章系列目录 SQL开发技巧(一) SQL开 ...
- DelphiXE2 DataSnap开发技巧收集
DelphiXE2 DataSnap开发技巧收集 作者: 2012-08-07 09:12:52 分类:Delphi 标签: 作为DelphiXE2 DataSnap开发的私家锦囊, ...
- delphi XE5下安卓开发技巧
delphi XE5下安卓开发技巧 一.手机快捷方式显示中文名称 project->options->Version Info-label(改成需要显示的中文名即可),但是需要安装到安卓手 ...
- 经典收藏 50个jQuery Mobile开发技巧集萃
http://www.cnblogs.com/chu888chu888/archive/2011/11/10/2244181.html 1.Backbone移动实例 这是在Safari中运行的一款Ba ...
随机推荐
- BZOJ_2743_[HEOI2012]采花_离线+树状数组
BZOJ_2743_[HEOI2012]采花_离线+树状数组 Description 萧芸斓是Z国的公主,平时的一大爱好是采花.今天天气晴朗,阳光明媚,公主清晨便去了皇宫中新建的花园采花 .花园足够大 ...
- BZOJ_4892_[Tjoi2017]dna_哈希
BZOJ_4892_[Tjoi2017]dna_哈希 Description 加里敦大学的生物研究所,发现了决定人喜不喜欢吃藕的基因序列S,有这个序列的碱基序列就会表现出喜欢吃藕的 性状,但是研究人员 ...
- Ubuntu配置tomcat9
buntu 安装jdk:[链接] Ubuntu安装eclipse:[链接] Ubuntu下安装MySQL与mysql workbench:[链接] Ubuntu配置tomcat9:[链接] Ubunt ...
- js面试题1
1.介绍js的基本数据类型 Undefined.Null.Boolean.Number.String 2.js有哪些内置对象? 数据封装类对象:Object.Array.Boolean.Number ...
- 【原创】分布式之redis复习精讲
引言 为什么写这篇文章? 博主的<分布式之消息队列复习精讲>得到了大家的好评,内心诚惶诚恐,想着再出一篇关于复习精讲的文章.但是还是要说明一下,复习精讲的文章偏面试准备,真正在开发过程中, ...
- kali下安装截图软件
安装截图软件 1.下载安装python-xlib apt-get install python-xlib 2.下载截图软件包 wget http://packages.linuxdeepin.com/ ...
- 吴恩达深度学习笔记1-神经网络的编程基础(Basics of Neural Network programming)
一:二分类(Binary Classification) 逻辑回归是一个用于二分类(binary classification)的算法.在二分类问题中,我们的目标就是习得一个分类器,它以对象的特征向量 ...
- 《HelloGitHub》第 32 期
公告 新加入了 2 位机器学期的小伙伴负责机器学习专栏.项目的首页增加合作组织一栏,如有开源组织有意合作可以点击联系我. 我们还在路上,不停地前行. <HelloGitHub>第 32 期 ...
- Python与家国天下
导读:Python猫是一只喵星来客,它爱地球的一切,特别爱优雅而无所不能的 Python.我是它的人类朋友豌豆花下猫,被授权润色与发表它的文章.如果你是第一次看到这个系列文章,那我强烈建议,请先看看它 ...
- 强化学习(十七) 基于模型的强化学习与Dyna算法框架
在前面我们讨论了基于价值的强化学习(Value Based RL)和基于策略的强化学习模型(Policy Based RL),本篇我们讨论最后一种强化学习流派,基于模型的强化学习(Model Base ...