作者seasa2016 (文慧)
看板DataScience
標題[問題] rnn的overfitting
時間Mon Aug 13 11:26:08 2018
大家好,小弟我近來在研究一些sequence model,在computer vision的領域中 我們都知道over fitting意味者泛化能力差,也就是會沒辦法很好的學習到general 的特徵,因而在testing set上面表現不佳。
這裡我想到了一個問題,那對於rnn的model,overfitting又會以怎樣的方式呈獻呢? 倘若是翻譯的問題的話,那overfitting代表每個字都可以被正確的翻譯,那似乎也不差?
請教各位大大惹
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.248.194
※ 文章網址: https://webptt.com/m.aspx?n=bbs/DataScience/M.1534130771.A.CD1.html
1F:→ youngman77: 沒辦法保證蒐集到所有需要被翻譯的sequence吧,overfi 08/13 13:24
2F:→ youngman77: t的話就資料集有限制的狀況(有限的sequence分布)下 08/13 13:24
3F:→ youngman77: 正確翻譯比例很高(training set跟test set同一組), 08/13 13:24
4F:→ youngman77: 但你有所有目標sequence的分布資料的話也不用做mode 08/13 13:24
5F:→ youngman77: l啦,不是用dictionary就好了嗎 08/13 13:24
6F:推 yiefaung: 你的例子overfit不代表每個字被正確翻譯 是代表training 08/13 16:48
7F:→ yiefaung: set中的seq完全對應 所以有可能改一個字就翻不出來 08/13 16:48
8F:→ OnePiecePR: 你說的比較不需要人工智慧吧,IFs系統查表比較適合 08/14 21:32
9F:→ seasa2016: 這是在翻譯的問題上 那seq2seq model還有用在如 文本摘 08/19 18:40
10F:→ seasa2016: 要 08/19 18:40
11F:→ seasa2016: 那想請問 結果會怎麼表現呢? 08/19 18:40
12F:推 whsunset: 你第一段的最後一句就是答案了啊,在沒看過的資料上會表 08/23 14:23
13F:→ whsunset: 現的不好,跟 task 沒什麼關係 08/23 14:23