作者PyTorch (背後骯髒的PY火炬)
看板DataScience
標題[問題] 關於ICCV最佳論文SinGAN
時間Wed Dec 4 08:42:03 2019
最近在看ICCV 2019最佳論文SinGAN
不太懂為什麼他可以做到單張training可以
有跟多張圖片大量train的SRGAN相近的SR結果
我的理解是他這個方法training跟testing都是同
一張圖片
跟一般的SRGAN在testing圖片 是training中沒有的很不同
因為SinGAN的training跟testing都是用同一張圖片
所以有點像偷看答案 才能與大量圖片的training SRGAN相比
我的理解有對嗎?
謝謝
--
1F:→ a000000000: 那是假ee真cs刷題仔10/11 07:37
2F:→ a000000000: 真ee很慘 不過沒人管10/11 07:37
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.30.32 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1575420128.A.DC8.html
3F:推 robert780612: 我記得paper裡面有一段是說影像內不同位置的local 12/06 12:15
4F:→ robert780612: feature會很類似 12/06 12:15
5F:→ robert780612: 還有一篇deep image prior也是單張圖就可以train 12/06 12:16
6F:→ PyTorch: 那traing跟testing是同一張對吧? 12/08 20:43
7F:→ followwar: NO SINGAN跟deep image prior類似的概念是將 12/09 23:25
8F:→ followwar: Network要學的是single image的分布 12/09 23:27
9F:→ followwar: SINGAN在TEST時是丟NOISE進去也可以丟別的image進去 12/09 23:29
10F:→ followwar: 而hierachical的架構可以幫助學到global->local分布 12/09 23:30
真的那麼神奇? 還蠻驚訝的
意思是說 我train SinGAN時用一張石頭牆壁的圖去訓練
testing時丟草地或是樹林進去讓他做super resolution也可以做到跟SRGAN相比?
好像變魔術? 因為石頭牆跟草地樹林的分佈差很多
※ 編輯: PyTorch (140.112.30.32 臺灣), 12/11/2019 03:37:38
11F:→ yoyololicon: 感覺樓主好像有搞錯東西… 12/11 12:55
12F:→ yoyololicon: 只有看過image prior, 不過如果sinGAN 也是類似的話 12/11 12:57
13F:→ yoyololicon: ,這類model 在做的事情和其他大部分model 不太一樣 12/11 12:57
14F:→ yoyololicon: image prior練出來的weight只有針對那張圖而已,不 12/11 12:58
15F:→ yoyololicon: 能套到其他圖上 12/11 12:58
16F:→ KirimaSyaro: 我也是覺得train跟test就是同一張圖 12/11 12:59
17F:→ KirimaSyaro: 可是不清楚 這樣要怎麼跟SRGAN比較 12/11 13:00
18F:→ yoyololicon: 大概看完了singan,的確和deep image prior的概念類 12/11 15:35
19F:→ yoyololicon: 似 12/11 15:35
20F:→ yoyololicon: train 和test 的圖是同一張沒錯,但train 時的圖是d 12/11 15:36
21F:→ yoyololicon: ownsample 過的 12/11 15:36
22F:→ yoyololicon: test 時才是餵原本的解析度 12/11 15:36
23F:→ yoyololicon: 所以還是能比較R 因為test sample 嚴格來說和traini 12/11 15:38
24F:→ yoyololicon: ng 時不一樣 12/11 15:38
25F:→ yoyololicon: 每次要inference一張圖,就是重train,不過training 12/11 15:45
26F:→ yoyololicon: 通常都很快啦畢竟只有一張 12/11 15:45