作者PyTorch (背後肮脏的PY火炬)
看板DataScience
标题[问题] 关於ICCV最佳论文SinGAN
时间Wed Dec 4 08:42:03 2019
最近在看ICCV 2019最佳论文SinGAN
不太懂为什麽他可以做到单张training可以
有跟多张图片大量train的SRGAN相近的SR结果
我的理解是他这个方法training跟testing都是同
一张图片
跟一般的SRGAN在testing图片 是training中没有的很不同
因为SinGAN的training跟testing都是用同一张图片
所以有点像偷看答案 才能与大量图片的training SRGAN相比
我的理解有对吗?
谢谢
--
1F:→ a000000000: 那是假ee真cs刷题仔10/11 07:37
2F:→ a000000000: 真ee很惨 不过没人管10/11 07:37
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.112.30.32 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1575420128.A.DC8.html
3F:推 robert780612: 我记得paper里面有一段是说影像内不同位置的local 12/06 12:15
4F:→ robert780612: feature会很类似 12/06 12:15
5F:→ robert780612: 还有一篇deep image prior也是单张图就可以train 12/06 12:16
6F:→ PyTorch: 那traing跟testing是同一张对吧? 12/08 20:43
7F:→ followwar: NO SINGAN跟deep image prior类似的概念是将 12/09 23:25
8F:→ followwar: Network要学的是single image的分布 12/09 23:27
9F:→ followwar: SINGAN在TEST时是丢NOISE进去也可以丢别的image进去 12/09 23:29
10F:→ followwar: 而hierachical的架构可以帮助学到global->local分布 12/09 23:30
真的那麽神奇? 还蛮惊讶的
意思是说 我train SinGAN时用一张石头墙壁的图去训练
testing时丢草地或是树林进去让他做super resolution也可以做到跟SRGAN相比?
好像变魔术? 因为石头墙跟草地树林的分布差很多
※ 编辑: PyTorch (140.112.30.32 台湾), 12/11/2019 03:37:38
11F:→ yoyololicon: 感觉楼主好像有搞错东西… 12/11 12:55
12F:→ yoyololicon: 只有看过image prior, 不过如果sinGAN 也是类似的话 12/11 12:57
13F:→ yoyololicon: ,这类model 在做的事情和其他大部分model 不太一样 12/11 12:57
14F:→ yoyololicon: image prior练出来的weight只有针对那张图而已,不 12/11 12:58
15F:→ yoyololicon: 能套到其他图上 12/11 12:58
16F:→ KirimaSyaro: 我也是觉得train跟test就是同一张图 12/11 12:59
17F:→ KirimaSyaro: 可是不清楚 这样要怎麽跟SRGAN比较 12/11 13:00
18F:→ yoyololicon: 大概看完了singan,的确和deep image prior的概念类 12/11 15:35
19F:→ yoyololicon: 似 12/11 15:35
20F:→ yoyololicon: train 和test 的图是同一张没错,但train 时的图是d 12/11 15:36
21F:→ yoyololicon: ownsample 过的 12/11 15:36
22F:→ yoyololicon: test 时才是喂原本的解析度 12/11 15:36
23F:→ yoyololicon: 所以还是能比较R 因为test sample 严格来说和traini 12/11 15:38
24F:→ yoyololicon: ng 时不一样 12/11 15:38
25F:→ yoyololicon: 每次要inference一张图,就是重train,不过training 12/11 15:45
26F:→ yoyololicon: 通常都很快啦毕竟只有一张 12/11 15:45