作者benjamin1023 (酷毙了)
看板DataScience
标题[问题] autoencoder 问题
时间Wed Jul 10 14:08:32 2019
小弟最近在看NN的演算法
看到了autoencoder的介绍
有说到autoencoder可以帮忙做neuron的权重初始化
但是autoencoder 又只能输出跟input一样多的维度
这样用autoencoder 的话中间的hidden layer就一定要跟input一样了 这样会有什麽坏处
吗
Autoencoder在应用上还有什麽好处吗?
感谢各位大大解惑
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.136.5.136 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1562738914.A.B61.html
1F:推 HHMoon: Autoencoder 分为encoder层&decoder层 中间的hidden layer 07/10 17:31
2F:→ HHMoon: 是从大到小(encode)至由小到大(decode)做输出 07/10 17:31
3F:→ HHMoon: 最常见的就是用来作资料降维取代PCA的作法 也可以用来做影 07/10 17:32
4F:→ HHMoon: 像去噪 语意分割等功能 07/10 17:32
5F:推 ruokcnn: 楼上都把重点讲差不多 关键是取中间层做降噪或降维用 07/11 15:09
6F:→ ruokcnn: 也听过有人拿中间层来分群..... 07/11 15:10
7F:推 sxy67230: AE是分层两边,一边做encode,另一边做decode,所以会 07/11 21:45
8F:→ sxy67230: 先在encode降维,decode在升维。最後我们的训练目标期 07/11 21:45
9F:→ sxy67230: 待input跟output差异化是最小的。 07/11 21:45
10F:推 sxy67230: AE应用很多的,变体也很多,像是把encoder的输出latent 07/11 21:56
11F:→ sxy67230: 丢入gan的discriminator,把encoder视为是生成器在优 07/11 21:56
12F:→ sxy67230: 化decoder跟discriminator,这样输出的模型解决了gan的 07/11 21:56
13F:→ sxy67230: 生成器不连续的问题,让图像更接近真实世界。 07/11 21:56
14F:推 sxy67230: 还有我们也可以理解出来的latent可能是代表某些参数值, 07/11 22:03
15F:→ sxy67230: 我们加入label去做condition,训练encoder跟label是有 07/11 22:03
16F:→ sxy67230: 关的,结果是调整label就可以让ae生成我们期望的输入变 07/11 22:04
17F:→ sxy67230: 化图像。 07/11 22:04
18F:→ sxy67230: 第一个应用可以去查AAE,第二个去找conditional VAE论 07/11 22:04
19F:→ sxy67230: 文 07/11 22:04
20F:推 sxy67230: 其实更简单来说,我们期待透过encoder跟decoder去训练en 07/11 22:25
21F:→ sxy67230: coder的输出latent其实就是资料的真正特徵,所以才有降 07/11 22:25
22F:→ sxy67230: 维、降噪,进一步脑补资料的能力 07/11 22:25
23F:→ benjamin1023: 感谢各位解答 小弟会再依大家给的方向去查资料 07/11 23:10