作者benjamin1023 (酷斃了)
看板DataScience
標題[問題] autoencoder 問題
時間Wed Jul 10 14:08:32 2019
小弟最近在看NN的演算法
看到了autoencoder的介紹
有說到autoencoder可以幫忙做neuron的權重初始化
但是autoencoder 又只能輸出跟input一樣多的維度
這樣用autoencoder 的話中間的hidden layer就一定要跟input一樣了 這樣會有什麼壞處
嗎
Autoencoder在應用上還有什麼好處嗎?
感謝各位大大解惑
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 114.136.5.136 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1562738914.A.B61.html
1F:推 HHMoon: Autoencoder 分為encoder層&decoder層 中間的hidden layer 07/10 17:31
2F:→ HHMoon: 是從大到小(encode)至由小到大(decode)做輸出 07/10 17:31
3F:→ HHMoon: 最常見的就是用來作資料降維取代PCA的作法 也可以用來做影 07/10 17:32
4F:→ HHMoon: 像去噪 語意分割等功能 07/10 17:32
5F:推 ruokcnn: 樓上都把重點講差不多 關鍵是取中間層做降噪或降維用 07/11 15:09
6F:→ ruokcnn: 也聽過有人拿中間層來分群..... 07/11 15:10
7F:推 sxy67230: AE是分層兩邊,一邊做encode,另一邊做decode,所以會 07/11 21:45
8F:→ sxy67230: 先在encode降維,decode在升維。最後我們的訓練目標期 07/11 21:45
9F:→ sxy67230: 待input跟output差異化是最小的。 07/11 21:45
10F:推 sxy67230: AE應用很多的,變體也很多,像是把encoder的輸出latent 07/11 21:56
11F:→ sxy67230: 丟入gan的discriminator,把encoder視為是生成器在優 07/11 21:56
12F:→ sxy67230: 化decoder跟discriminator,這樣輸出的模型解決了gan的 07/11 21:56
13F:→ sxy67230: 生成器不連續的問題,讓圖像更接近真實世界。 07/11 21:56
14F:推 sxy67230: 還有我們也可以理解出來的latent可能是代表某些參數值, 07/11 22:03
15F:→ sxy67230: 我們加入label去做condition,訓練encoder跟label是有 07/11 22:03
16F:→ sxy67230: 關的,結果是調整label就可以讓ae生成我們期望的輸入變 07/11 22:04
17F:→ sxy67230: 化圖像。 07/11 22:04
18F:→ sxy67230: 第一個應用可以去查AAE,第二個去找conditional VAE論 07/11 22:04
19F:→ sxy67230: 文 07/11 22:04
20F:推 sxy67230: 其實更簡單來說,我們期待透過encoder跟decoder去訓練en 07/11 22:25
21F:→ sxy67230: coder的輸出latent其實就是資料的真正特徵,所以才有降 07/11 22:25
22F:→ sxy67230: 維、降噪,進一步腦補資料的能力 07/11 22:25
23F:→ benjamin1023: 感謝各位解答 小弟會再依大家給的方向去查資料 07/11 23:10