作者Activation ('selu')
看板DataScience
標題[討論] 關於投稿ICLR那篇BigGAN
時間Wed Oct 10 23:23:25 2018
關於投稿ICLR那篇的BigGAN
不知道有沒有人測試過在其他dataset的效果?
或是大家看完有沒有什麼想法?
大家討論一下吧?
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.136.95.225
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1539185008.A.066.html
※ 編輯: Activation (114.136.95.225), 10/10/2018 23:24:09
1F:推 a75468: 也不是人人都能爽 train batch size 2048 的 model ... 10/11 00:03
文中說batch size變大有變強應該是因為兼顧diversity,那如果採用不像imagenet這麼diverse的dataset,不一定需要那麼大batch size?不過都要試了才知道
2F:→ patrick2dot0: 512 cores TPU for 24~48 hours10/11 00:28
3F:→ seasa2016: U錢人10/11 00:30
4F:→ yoyololicon: 一般人很難reproduce QQ10/11 07:54
※ 編輯: Activation (114.136.150.168), 10/11/2018 17:39:37
5F:推 yiefaung: code有release嗎 搜了一下沒看到有人開始reproduce 10/11 22:47
6F:→ a75468: batch size 不變大不就是原本的SAGAN了 10/14 16:38
7F:→ a75468: 他後面那些trick都是基於batch size變大後做的改正 10/14 16:38
8F:→ a75468: 如果batch size沒那麼大做那些trick會發生什麼不好說 10/14 16:38