作者christinlove (love!)
看板DataScience
标题Re: [问题] 关於CNN架构设计及GAN的epoch设计
时间Mon Jun 11 05:11:36 2018
※ 引述《arch2453 (玖月)》之铭言:
: 系统:win10
: 问题:CNN,GAN
: 环境:python+jupyter notebook+Keras
: 各位前辈们好
: 因为没在学校修过正规课
: 平常是看网路教学影片和看书实作
: 所以有一些不懂的地方想在这里向前辈们请教
: 1.
: 关於GAN实作
: 我是参考CycleGAN的论文及程式
: 实现图片的转换
: 较有名的例子是风景变画或是斑马变马
: 想请问的是Epoch该如何设定会比较好
: 我目前是固定设定epoch 200
: 但怎麽确定前面就已经能产生很好的图片
: 或是在训练更多次效果会更好
: 想请问除了用人眼观测外
: 还有其他比较好说服人的方法吗?
: 因为不像普通的分类可以使用early stop的方式
风格转换的评价方式要嘛用肉眼看,要嘛看 loss (设计良好的话)
你可以在 validation 的时候输出成图片存起来
那前面好不好用看的就知道了
可以每隔 10 个 epoch 存一次,loss 曲线挑最低点看输出结果
: 2.
: 在实作CNN的时候
: 我做的是辨识128x128大小图片
: 架构放了三层的convolution 层
: 但老师质疑为什麽不放更多层
: 我回答我有尝试了四层但效果下降
: 老师却继续质疑那可以在放更多到四五层看看
: 或是乾脆直接用别人现有VGG的19层
: 而不该使用最简单的范例model
: 想请问的是像这些参数:
: 如层数,filter大小,neuron数的设计
: 有一定的合理理由吗
: 还是只能try & error
: 比如老师问我FC为什麽要放1000
: 像这种问题我都觉得很难回答QQ
: 这些变数的组合实在是太多了Orz
: 谢谢大家
多看别人的 paper 看他们怎麽设计架构
通常都是一些观察和发想以後就会设计实验,然後用实验结果证明这想法是对的
所以大部分人都是看实验结果说话的
还有一部分的人是直接用数学证明为什麽要这样设计
总之,有(前人的)经验以後就可以凭感觉调参,或是 grid search
ASL dataset 我不熟
通常是可以 transfer learning 的情况下就可以使用用途相似的模型
所以不一定只能从引用那篇 paper 里面找出 CNN,用途相似的也能找看看
至於 FC 为什麽要放 1000 这种问题
你可以实验个几次以後制成表格再报告给你老师听
他看到你 500, 1000, 2000, 3000... 都跑过了,通常也没啥好问的了
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.239.65.157
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1528665099.A.A9C.html
1F:推 arch2453: 首先谢谢你给了这麽多的回应,的确GAN那里我是每10epoch 06/11 23:26
2F:→ arch2453: 存一次模型,但只有实作注意过Loss的变化! 06/11 23:26
3F:推 arch2453: 另外,我只能看结果说话数学大概无法Orz,其实我有尝试 06/11 23:31
4F:→ arch2453: 过500,1000,1280,1500,2500,4096,但还是被问那为 06/11 23:31
5F:→ arch2453: 什麽我最後选的是最好,而且因为最後FC兜两层,组合又 06/11 23:31
6F:→ arch2453: 更多了QQ 06/11 23:31