DataScience 板


LINE

各位前輩, 小的最近在讀 "Tutorial on Variational Autoencoders" https://arxiv.org/pdf/1606.05908.pdf 在 Page 9 末: Hence, as is standard in stochastic gradient descent, we take one sample of z and treat P(X|z) for that z as an approximation of E [log P(X|z)]. (E 是 以 Q(Z) 為分配的期望值) 我的問題是 treat P(X|z) for that z 是不是應該為 treat logP(X|z) for that z 才對? 或者我的思路哪兒錯了? 感謝指導. --



※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.162.161.249 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1559827172.A.979.html
1F:→ sxy67230: 我的理解是作者說明that z as a proximation是在描述我 06/07 08:54
2F:→ sxy67230: 們p(X|z)採樣出來的z,這個採樣點z可以視為是E[p(X|z] 06/07 08:54
3F:→ sxy67230: 的近似...這比較像是文章的理解啦。 06/07 08:54
非常感謝 sxy 大, 端午節快樂!
4F:推 bulc381: 是logP沒錯 就是Monte Carlo 06/07 21:19
5F:→ bulc381: 剛好今天VAE作者傳了一篇Introduction to VAE上arXiv 也 06/07 21:24
6F:→ bulc381: 可以來回對照看看 https://arxiv.org/abs/1906.02691 06/07 21:24
拍謝我根本不是數統背景, Monte Carlo 沒學過... 所以您的意思是 原文應該改為 treat log P(X|z) for that z? 很感謝您提醒 Kingma 有推出 introduction, 我光看 VAE 的原理 來來回回 (包含私信請教 sxy) 花了快一個月, 台灣的 youtube 相關原理教學 幾乎沒有(李教授很簡單的帶過), 即使 Stanford 的 ML Generative Model 那片 (Serena Yeung 講得多一些, 但是也是點到而已... 有學生問她為何 latent variable Z 要用 Normal distribution, 她卡住... 一開始我也覺得, 當然是高斯呀, 後來 突然看到 Bishop 有提到, Normal Distribution 的 Entropy 最大, 突然有被點到的感覺) 很感恩兩位大大... ※ 編輯: tipsofwarren (118.160.84.85 臺灣), 06/07/2019 22:25:03
7F:→ bulc381: 對 其實就是常常看paper會看到有一步推導 會把期望值變成 06/07 23:31
8F:→ bulc381: = 1/N Σ(...) 這樣的作法,只是這邊簡單取N=1 06/07 23:32
9F:推 bulc381: 我還沒仔細看那篇introduction,但看起來第三章有提到你 06/07 23:41
10F:→ bulc381: 上面講的:為什麼要用Gaussian 06/07 23:42
11F:→ bulc381: 還有要怎麼放寬讓它也可以是非Gaussian 06/07 23:42
12F:→ sxy67230: Monte Carlo EM取期望值E[log(p(y,x|theta))] 近似於 1/ 06/08 12:02
13F:→ sxy67230: N summation(log(P(x,y|theta))),當考慮只採樣一個z的 06/08 12:02
14F:→ sxy67230: 採樣點的時候就是log(P(X|z^),z^為採樣點z。我覺得個人 06/08 12:02
15F:→ sxy67230: 理解是原作者表達也沒錯,只是換一個方式說,然後想說 06/08 12:03
16F:→ sxy67230: 明取樣z就是期望值的近似,等同於後話就是log(P(X|z^)這 06/08 12:03
17F:→ sxy67230: 件事情。 06/08 12:03
18F:推 disney82231: 關於VAE我也有問題,就是他的output是機率值,還是就 06/08 18:17
19F:→ disney82231: 像AE是預測自己的值 06/08 18:17
20F:→ youngman77: 如果理解沒有錯, 用RMSE Loss, output是gaussian mu 06/08 20:15
21F:→ youngman77: 而且std=1, 所以你可以代回gaussian得到你要的機率 06/08 20:16
22F:→ youngman77: posterior選擇gaussian approximation應該是個conven 06/08 20:51
23F:→ youngman77: ient choice, 選擇gaussian除了可以進一步用ICLR14 K 06/08 20:51
24F:→ youngman77: ingma提出的reparameterization trick進一步降低stoc 06/08 20:51
25F:→ youngman77: hastic gradient of ELBO的variation以外, ELBO拆解 06/08 20:51
26F:→ youngman77: 出來的KL divergence那一項也可以直接得到論文中推 06/08 20:52
27F:→ youngman77: 導的解析解。 06/08 20:52







like.gif 您可能會有興趣的文章
icon.png[問題/行為] 貓晚上進房間會不會有憋尿問題
icon.pngRe: [閒聊] 選了錯誤的女孩成為魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一張
icon.png[心得] EMS高領長版毛衣.墨小樓MC1002
icon.png[分享] 丹龍隔熱紙GE55+33+22
icon.png[問題] 清洗洗衣機
icon.png[尋物] 窗台下的空間
icon.png[閒聊] 双極の女神1 木魔爵
icon.png[售車] 新竹 1997 march 1297cc 白色 四門
icon.png[討論] 能從照片感受到攝影者心情嗎
icon.png[狂賀] 賀賀賀賀 賀!島村卯月!總選舉NO.1
icon.png[難過] 羨慕白皮膚的女生
icon.png閱讀文章
icon.png[黑特]
icon.png[問題] SBK S1安裝於安全帽位置
icon.png[分享] 舊woo100絕版開箱!!
icon.pngRe: [無言] 關於小包衛生紙
icon.png[開箱] E5-2683V3 RX480Strix 快睿C1 簡單測試
icon.png[心得] 蒼の海賊龍 地獄 執行者16PT
icon.png[售車] 1999年Virage iO 1.8EXi
icon.png[心得] 挑戰33 LV10 獅子座pt solo
icon.png[閒聊] 手把手教你不被桶之新手主購教學
icon.png[分享] Civic Type R 量產版官方照無預警流出
icon.png[售車] Golf 4 2.0 銀色 自排
icon.png[出售] Graco提籃汽座(有底座)2000元誠可議
icon.png[問題] 請問補牙材質掉了還能再補嗎?(台中半年內
icon.png[問題] 44th 單曲 生寫竟然都給重複的啊啊!
icon.png[心得] 華南紅卡/icash 核卡
icon.png[問題] 拔牙矯正這樣正常嗎
icon.png[贈送] 老莫高業 初業 102年版
icon.png[情報] 三大行動支付 本季掀戰火
icon.png[寶寶] 博客來Amos水蠟筆5/1特價五折
icon.pngRe: [心得] 新鮮人一些面試分享
icon.png[心得] 蒼の海賊龍 地獄 麒麟25PT
icon.pngRe: [閒聊] (君の名は。雷慎入) 君名二創漫畫翻譯
icon.pngRe: [閒聊] OGN中場影片:失蹤人口局 (英文字幕)
icon.png[問題] 台灣大哥大4G訊號差
icon.png[出售] [全國]全新千尋侘草LED燈, 水草

請輸入看板名稱,例如:Soft_Job站內搜尋

TOP