作者Activation ('selu')
看板DataScience
标题[讨论] 关於投稿ICLR那篇BigGAN
时间Wed Oct 10 23:23:25 2018
关於投稿ICLR那篇的BigGAN
不知道有没有人测试过在其他dataset的效果?
或是大家看完有没有什麽想法?
大家讨论一下吧?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.136.95.225
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1539185008.A.066.html
※ 编辑: Activation (114.136.95.225), 10/10/2018 23:24:09
1F:推 a75468: 也不是人人都能爽 train batch size 2048 的 model ... 10/11 00:03
文中说batch size变大有变强应该是因为兼顾diversity,那如果采用不像imagenet这麽diverse的dataset,不一定需要那麽大batch size?不过都要试了才知道
2F:→ patrick2dot0: 512 cores TPU for 24~48 hours10/11 00:28
3F:→ seasa2016: U钱人10/11 00:30
4F:→ yoyololicon: 一般人很难reproduce QQ10/11 07:54
※ 编辑: Activation (114.136.150.168), 10/11/2018 17:39:37
5F:推 yiefaung: code有release吗 搜了一下没看到有人开始reproduce 10/11 22:47
6F:→ a75468: batch size 不变大不就是原本的SAGAN了 10/14 16:38
7F:→ a75468: 他後面那些trick都是基於batch size变大後做的改正 10/14 16:38
8F:→ a75468: 如果batch size没那麽大做那些trick会发生什麽不好说 10/14 16:38