DataScience 板


LINE

※ 引述《eggy1018 (罗密欧与猪过夜)》之铭言: : 各位Data Science 版的大大们好,最近在深入研究GAN时,对於他的loss function的 : 解以及实作上仍存有疑惑。 : 问题点 : 最初开始推导的loss function 如下图 : https://i.imgur.com/cafOjej.jpg : 意思是G, D min max这个function吧?换句话说是同个loss funcion? : 可是.... : 在实作上G, D的loss function却不太一样 : Generator loss function : https://i.imgur.com/tNVfz6s.jpg : Discriminator loss function : https://i.imgur.com/4pzT6Hh.jpg : 在自己以前学习的认知中,D要max上图的Lisa function, G要min之,,所以我以为可 : 是同个loss function但是一个是正的一个是负的,然而实作上的方式却跟数学意义上 : 太一样... : 希望各位版友能给我一点意见,真的卡了很久,谢谢大家! 刚好对GAN有些许了解,在这边分享一下个人看法。 不常在PTT发文,希望排版不会太难看。 首先,GAN的发展非常快速,以下皆基於原始的GAN(Goodfellow et al. in NIPS 2014)讨 论。 先回答原Po的问题:为什麽原Po贴的程式码(应该是PyTorch-GAN)中,generator与discri minator实作是这样写? 参考下图GAN的objective function V,以gradient decent来说,一般GAN实作的loss fu nction确实是只差一个负号:discriminator为-V,generator为V。至於程式码上为什麽 好像不只是差一个负号是因为V的其中一部分generator根本不需要考虑,也就是真实的观 测资料部分,就算写进loss function,对generator来说也是属於常数,偏微分後会消去 ,因此在写code时一般直接省略。 https://i.imgur.com/EtDkvLi.jpg 在原Po贴的程式码中,先不管那个auxiliary_loss,discriminator在adversarial_loss 计算了两次:一次计算真实资料与正类标签(code中的valid)的binary cross entropy ( 以下简称BCE),一次计算生成资料与副类标签(code中的fake)的BCE。而generator只计算 生成资料与「正类标签」的BCE。 以实作上来说,generator与discriminator的loss好像是差一个负号的事情。但以理论上 两者的目标却不是仅仅是差一个负号这麽单纯。要说到generator与discriminator的目标 ,那就不得不谈一下GAN到底解决的什麽问题。 回顾一下所谓的generative model。在机率统计理论中, 生成模型(generative model)是 指能够随机生成观测数据的模型。所以训练一个generative model其实就是希望模型输出 与观测数据的分布越接近越好,或者说minimize这两者之间的divergence。 如果说我们的generative model是一个简单的model,比如说Gaussian mixture model, 那麽算个divergence,比如说JS divergence,就是一件不难的事情。但如果今天generat ive model是一个neural network,那就有点困难了。 而这就是GAN厉害的地方,GAN很聪明地使用到了经过训练的分类器其实可以一定程度第代 表资料的divergence这件事,用实质为分类器的discriminator估divergence,并以此训 练generator。 所以实际上也不能说discriminator在minimize BCE而generator在maximize BCE,而是di scriminator在minimize BCE,而generator在maximize discriminator可以找到的最小BC E。 https://i.imgur.com/9IpLHvy.jpg 为了尽量逼近这个目标,GAN一般采用交互训练的方法,先训练discriminator数次,在训 练generator一次,如此重复直到训练结束。 https://i.imgur.com/YCtPw4T.jpg 附带一提,Goodfellow在2014年的论文中discriminator与generator的loss也不只是差一 个负号,不过其实照他的方法或是直接加负号都是可以训练的。 --- 以上抛砖引玉提供一点粗浅见解。 希望有帮助,也欢迎一起讨论。 关於一些GAN的细节可以参考这篇文章 https://tinyurl.com/y4l2q5vf 或是李宏毅老师的这段投影片 https://youtu.be/DMA4MrNieWo
--



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 123.194.88.184 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1601307471.A.C6F.html ※ 编辑: janus7799 (123.194.88.184 台湾), 09/29/2020 01:20:57
1F:推 jasoncph: 推 09/29 23:21
2F:推 wtchen: discriminator的目标是减少分类损失(不是真阳就是真阴) 10/01 02:32
3F:→ wtchen: 但generator只希望增加伪阳,让discriminator接受 10/01 02:33
4F:→ wtchen: 自己生成的假样本,至於discriminator对於真样本的监别度 10/01 02:34
5F:→ wtchen: generator是不在乎的 10/01 02:34
6F:→ hippo130: 推 10/05 00:38
7F:推 jason2718: 真详细,推推 10/11 19:43







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:e-shopping站内搜寻

TOP