DataScience 板


LINE

各位前辈, 小的最近在读 "Tutorial on Variational Autoencoders" https://arxiv.org/pdf/1606.05908.pdf 在 Page 9 末: Hence, as is standard in stochastic gradient descent, we take one sample of z and treat P(X|z) for that z as an approximation of E [log P(X|z)]. (E 是 以 Q(Z) 为分配的期望值) 我的问题是 treat P(X|z) for that z 是不是应该为 treat logP(X|z) for that z 才对? 或者我的思路哪儿错了? 感谢指导. --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 1.162.161.249 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1559827172.A.979.html
1F:→ sxy67230: 我的理解是作者说明that z as a proximation是在描述我 06/07 08:54
2F:→ sxy67230: 们p(X|z)采样出来的z,这个采样点z可以视为是E[p(X|z] 06/07 08:54
3F:→ sxy67230: 的近似...这比较像是文章的理解啦。 06/07 08:54
非常感谢 sxy 大, 端午节快乐!
4F:推 bulc381: 是logP没错 就是Monte Carlo 06/07 21:19
5F:→ bulc381: 刚好今天VAE作者传了一篇Introduction to VAE上arXiv 也 06/07 21:24
6F:→ bulc381: 可以来回对照看看 https://arxiv.org/abs/1906.02691 06/07 21:24
拍谢我根本不是数统背景, Monte Carlo 没学过... 所以您的意思是 原文应该改为 treat log P(X|z) for that z? 很感谢您提醒 Kingma 有推出 introduction, 我光看 VAE 的原理 来来回回 (包含私信请教 sxy) 花了快一个月, 台湾的 youtube 相关原理教学 几乎没有(李教授很简单的带过), 即使 Stanford 的 ML Generative Model 那片 (Serena Yeung 讲得多一些, 但是也是点到而已... 有学生问她为何 latent variable Z 要用 Normal distribution, 她卡住... 一开始我也觉得, 当然是高斯呀, 後来 突然看到 Bishop 有提到, Normal Distribution 的 Entropy 最大, 突然有被点到的感觉) 很感恩两位大大... ※ 编辑: tipsofwarren (118.160.84.85 台湾), 06/07/2019 22:25:03
7F:→ bulc381: 对 其实就是常常看paper会看到有一步推导 会把期望值变成 06/07 23:31
8F:→ bulc381: = 1/N Σ(...) 这样的作法,只是这边简单取N=1 06/07 23:32
9F:推 bulc381: 我还没仔细看那篇introduction,但看起来第三章有提到你 06/07 23:41
10F:→ bulc381: 上面讲的:为什麽要用Gaussian 06/07 23:42
11F:→ bulc381: 还有要怎麽放宽让它也可以是非Gaussian 06/07 23:42
12F:→ sxy67230: Monte Carlo EM取期望值E[log(p(y,x|theta))] 近似於 1/ 06/08 12:02
13F:→ sxy67230: N summation(log(P(x,y|theta))),当考虑只采样一个z的 06/08 12:02
14F:→ sxy67230: 采样点的时候就是log(P(X|z^),z^为采样点z。我觉得个人 06/08 12:02
15F:→ sxy67230: 理解是原作者表达也没错,只是换一个方式说,然後想说 06/08 12:03
16F:→ sxy67230: 明取样z就是期望值的近似,等同於後话就是log(P(X|z^)这 06/08 12:03
17F:→ sxy67230: 件事情。 06/08 12:03
18F:推 disney82231: 关於VAE我也有问题,就是他的output是机率值,还是就 06/08 18:17
19F:→ disney82231: 像AE是预测自己的值 06/08 18:17
20F:→ youngman77: 如果理解没有错, 用RMSE Loss, output是gaussian mu 06/08 20:15
21F:→ youngman77: 而且std=1, 所以你可以代回gaussian得到你要的机率 06/08 20:16
22F:→ youngman77: posterior选择gaussian approximation应该是个conven 06/08 20:51
23F:→ youngman77: ient choice, 选择gaussian除了可以进一步用ICLR14 K 06/08 20:51
24F:→ youngman77: ingma提出的reparameterization trick进一步降低stoc 06/08 20:51
25F:→ youngman77: hastic gradient of ELBO的variation以外, ELBO拆解 06/08 20:51
26F:→ youngman77: 出来的KL divergence那一项也可以直接得到论文中推 06/08 20:52
27F:→ youngman77: 导的解析解。 06/08 20:52







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:BuyTogether站内搜寻

TOP