作者CVPR (硬train一发)
看板DataScience
标题[讨论] 对於1x1 kernel(convolution)的功用
时间Tue Jul 24 02:27:34 2018
1x1 convolution在segmentation中常用上
可以理解为segmentation这种pixel等级的操作,
不希望相邻pixel间互相影响才采用这种单元而非大的kernel 做convolution
1x1 conv也有用在资讯的压缩上,将多张的feature map压成少量feature map
例如network in network
这跟fully connected dense神经元又有点不同,因为fully connected是对同一张feature map每个不同位置的pixel做weighted sum
而1x1 convolution是对同一个位置,不同张feature maps做sum
这是我的理解,大家觉得呢?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 223.136.207.81
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1532370457.A.B8A.html
1F:推 qwerty9876c: 把fully connected layer的input想像成1*1*c*n,两个 07/24 07:39
2F:推 qwerty9876c: 是等价的。其中,1*1是大小,c是channel数目,n是 07/24 07:41
3F:→ qwerty9876c: data数量。 07/24 07:41
4F:推 jtyang1996: 你是不是在看glow 07/24 11:51
5F:→ Mchord: fully connect是所有feature map所有位置,你文中描述的 07/24 14:09
6F:→ Mchord: 比较像是global depth wise convolution之类的的东西 07/24 14:09
7F:推 yiefaung: 降维 减少运算量 bottleneck conv版fc 07/24 14:13
8F:→ truehero: 个人理解 1x1 conv 就是增加非线性方便拟和 剩下都是其 07/24 19:53
9F:推 minminpp: 我的理解是 1*1 conv会对input channel 做线性组合,所 07/27 09:25
10F:→ minminpp: 以每一个output channel都是一种input channel线性叠加 07/27 09:25
11F:→ minminpp: 组合 07/27 09:25
12F:推 uloyoy: 如果convolution的kernel size和input size(不包含channel 08/20 08:57
13F:→ uloyoy: )一样那它跟fully connected 等价 08/20 08:57