作者Master8787 (霸气大师)
看板DataScience
标题[问题] 特徵萃取与微调的差异以及迁移学习问题
时间Thu Jul 30 23:16:38 2020
各位前辈大家好
最近看到有关特徵萃取与微调的技术
想请问各位前辈
1.两者的差异是不是主要差在一个完全冻结conv_base一个没有
还是有什麽其他差异呢?
实作上是不是都以微调居多?
2.最近在使用一些model EX:VGG16, ResNet等
如何分辨输入是否要压缩至0~1之间
VGG16实作结果不压缩准确率较高一些
是观察本身模型是否有batch_norm吗
还是注意什麽地方?
感谢各位前辈的解答
若您方便的话有关迁移学习的一些常犯错误
也提点一下小弟
谢谢!
作业系统:COLAB(linux)
问题类别:CNN
使用工具:Python, Keras
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 223.140.178.251 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1596122203.A.CE0.html
1F:推 acctouhou: 1大部分已经没有这样分了,我个人经验,先fix,然後tra 08/01 02:10
2F:→ acctouhou: in完後端後再unfix 08/01 02:10
3F:推 acctouhou: 2这要根据你的model当初是怎麽被train 的,你就用相同 08/01 02:12
4F:→ acctouhou: 方法 pytorch的话有独立对rgb shift, tf的好像是缩放 08/01 02:12
5F:→ acctouhou: 到1~-1之间 08/01 02:12