作者seasa2016 (文慧)
看板DataScience
标题[问题] rnn的overfitting
时间Mon Aug 13 11:26:08 2018
大家好,小弟我近来在研究一些sequence model,在computer vision的领域中 我们都知道over fitting意味者泛化能力差,也就是会没办法很好的学习到general 的特徵,因而在testing set上面表现不佳。
这里我想到了一个问题,那对於rnn的model,overfitting又会以怎样的方式呈献呢? 倘若是翻译的问题的话,那overfitting代表每个字都可以被正确的翻译,那似乎也不差?
请教各位大大惹
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 140.112.248.194
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1534130771.A.CD1.html
1F:→ youngman77: 没办法保证蒐集到所有需要被翻译的sequence吧,overfi 08/13 13:24
2F:→ youngman77: t的话就资料集有限制的状况(有限的sequence分布)下 08/13 13:24
3F:→ youngman77: 正确翻译比例很高(training set跟test set同一组), 08/13 13:24
4F:→ youngman77: 但你有所有目标sequence的分布资料的话也不用做mode 08/13 13:24
5F:→ youngman77: l啦,不是用dictionary就好了吗 08/13 13:24
6F:推 yiefaung: 你的例子overfit不代表每个字被正确翻译 是代表training 08/13 16:48
7F:→ yiefaung: set中的seq完全对应 所以有可能改一个字就翻不出来 08/13 16:48
8F:→ OnePiecePR: 你说的比较不需要人工智慧吧,IFs系统查表比较适合 08/14 21:32
9F:→ seasa2016: 这是在翻译的问题上 那seq2seq model还有用在如 文本摘 08/19 18:40
10F:→ seasa2016: 要 08/19 18:40
11F:→ seasa2016: 那想请问 结果会怎麽表现呢? 08/19 18:40
12F:推 whsunset: 你第一段的最後一句就是答案了啊,在没看过的资料上会表 08/23 14:23
13F:→ whsunset: 现的不好,跟 task 没什麽关系 08/23 14:23