作者PyTorch (背後肮脏的PY火炬)
看板DataScience
标题[讨论] 现在CNN架构对scale变化的解法?
时间Wed Jul 31 20:45:09 2019
就我所知
CNN并不是不受scale变化影响的的 譬如说 同一颗球 我近一点拍 让球比较大
CNN就可能判错
对不同大小影像CNN目前的解法
1. 硬train一发, 让不同大小的data都有train到 然而CNN学到的feature仍不是scale
invairant的 若是出现training data中没有的大小 还是可能会错
2. 多加几个CNN: 一个CNN不够 可以用多个 例如1x1 3x3 5x5 同时都抽feature 然後再
merge起来
例如googleNet
这样就同时考虑不同大小 但是这样还是有极限
除非 3x3, 4x4, 5x5, 6x6, ...所有大小都有
3. Laplacian Pyramid/Gaussian Pyramid: 传统的CV技术 不过跟CNN好像没有很合?
4. Pooling: 把不同大小都pooling到一样大小, 例如ROI pooling, 这我不知道算不算?
可是我觉得其实这只是计算方便 没有让他真的对不同尺度都有优化到?
小弟才疏学浅 还请各位先进补充补充
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.112.77.18 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1564577111.A.D3E.html
※ 编辑: PyTorch (140.112.150.97 台湾), 07/31/2019 21:12:39
1F:→ ScottOAO: 1. data augumentation 08/01 09:24
2F:→ ScottOAO: 图片大小不同 global avg pooling 08/01 09:25
3F:→ yoyololicon: 虽然不是scale invariant 不过最近有一篇在讲transl- 08/01 13:50
4F:→ yoyololicon: ation invariant的paper 有些概念可以借镜一下 08/01 13:50
6F:→ Mchord: Convolution本身就不可能scale invariant, 都是拿model ca 08/02 08:27
7F:→ Mchord: pacity去换来的 08/02 08:27
8F:推 sxy67230: 要嘛做augmentation ,要嘛增加模型capacity 。不过没人 08/02 19:33
9F:→ sxy67230: 提capsule net,hinton在文章中有采用em Routing 跟pose 08/02 19:33
10F:→ sxy67230: matrix来对抗rotation,我是觉得要对抗scale跟rotation 08/02 19:33
11F:→ sxy67230: 还是要从图学的角度出发就是了。要不然其实只是在增加 08/02 19:33
12F:→ sxy67230: 更多节点强迫网路记忆你的资料而已。 08/02 19:33
13F:推 jameschiou: 最近在解类似问题 目前是object detection後切ROI後分 08/04 15:02
14F:→ jameschiou: 析 效果比直接用augmentation好一些 08/04 15:04
15F:推 chobit199685: FPN不是解决了吗? 08/09 00:08