作者daniem1314 (原野放肆)
看板DataScience
标题[问题] 请问深度学习rtx 2080和2070会差很多吗
时间Sun Aug 4 22:05:29 2019
作业系统: win10
(ex:mac,win10,win8,win7,linux,etc...)
问题类别: RL,DL,Rnn,cnn
(ex:ML,SVM,RL,DL,RNN,CNN,NLP,BD,Vis,etc...)
使用工具: python,tensortflow
(ex:python,Java,C++,tensorflow,keras,MATLAB,etc...)
问题内容:
最近要组电脑
需求是用在深度学习和游戏
游戏2070不会顺的话
2080也不会顺到哪
所以2070就够
但深度学习就
不确定要挑rtx2080或2070
想问2080和2070会差很大吗?
如果以运算长度来看
可以省几倍的时间?
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 223.136.141.249 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/DataScience/M.1564927531.A.B20.html
1F:推 sxy67230: 差异没到非常大那种,看你的需求就是了,有成本考量我是08/04 22:37
需求就是想缩短运算时间,我看国外测试resnet-50的结论,有时差8% 有时差20%,8%的
话我可能就选2070了,20%可以考虑2080
2F:→ sxy67230: 觉得rtx 2060会比较适合普通人,2070其实售价有点偏高,08/04 22:37
因为网路上说至少要8g,差别蛮明显,不然我也想买2060就好
3F:→ sxy67230: 除非你有在打竞赛高配才比较适合有时间压力的任务。08/04 22:37
还没有到那麽专业
4F:推 sxy67230: 当然也可以选择一张适合玩游戏的,如果只是学生想学习08/04 22:39
5F:→ sxy67230: 使用,可以使用免费的colab。08/04 22:39
6F:推 sxy67230: 当然有财力的话,买越高当然越爽,泰坦下去可以一直爽就08/04 22:45
7F:→ sxy67230: 是了08/04 22:45
※ 编辑: daniem1314 (223.136.141.249 台湾), 08/04/2019 23:08:52
8F:→ Kazimir: 我觉得大一点的VRAM还是蛮有必要的 至少看到好玩的论文08/04 23:49
9F:→ Kazimir: 不会东西塞不进去08/04 23:49
是地,所以才把最低需求定在2070
※ 编辑: daniem1314 (223.136.141.249 台湾), 08/05/2019 00:24:42
10F:推 acctouhou: 11g vram才是重点 宁愿找二手1080ti08/05 01:22
rtx好像有加成的效果,执行上可以超越11g
11F:推 shhs1000246: 还是选大vram的吧 要是我会贴上80ti08/05 02:11
所以同样是8g的2080和2070,差距真的不大罗~
※ 编辑: daniem1314 (223.136.141.249 台湾), 08/05/2019 07:36:11
12F:推 sxy67230: 同样规格下真的差距不大,我猜你看到差很多的是2080ti, 08/05 07:58
2080ti是差更多,但好奇运算时间上差多少?
13F:→ sxy67230: 但是你有需求到ti级别,全部组好七万跑不掉。 08/05 07:58
好贵喔,应该没办法
14F:推 kumitang: 你可以参考新的2060super 8g ram 08/05 10:25
15F:→ kumitang: 刚好2060也快买不到了08/05 10:25
16F:→ kumitang: 或2070 super 08/05 10:26
※ 编辑: daniem1314 (223.137.80.114 台湾), 08/05/2019 11:17:19
17F:推 sma1033: 2080Ti和1080Ti小弟这边做实验试起来大概速度差20% ~ 30% 08/05 14:59
是否用fp16去跑?
18F:→ sma1033: 基本上如果是跑运算,建议还是能找11g Vram的卡最好 08/05 15:02
19F:推 sma1033: 减少cuda单元的影响远比减少记忆体的影响少得多 08/05 15:05
哈哈~那我可以安心用2070了,因为2080ti价差太大,加上2080入手价便宜,所以才列入
考量,目前看来游戏和深度学习上差别可能不大。但好一点gpu节省的时间是一直叠加上
去,最终还是会变得值得,只是时间长短的问题,这样观念对吗?
20F:→ sma1033: 因为较大的Vram可以减少从主记忆体搬资料的次数08/05 15:08
vram是真的有用,有爬文看到8gb要算256*256还无法运算(或是最大只能256*256)
21F:→ sma1033: 也比较不会有model塞爆记忆体的问题,所以能找11G就找11G08/05 15:09
※ 编辑: daniem1314 (223.137.205.58 台湾), 08/05/2019 22:30:20
22F:推 zjk4451: 怎麽不考虑2060s 也8G 08/09 17:04
2060super刚出,加上2070跳水,两个价格一模一样,2070性能还是好一点,游戏大概多5
帧,深度同样8g没差别,只是使用率会低一点,市面上清完2070就不会出了吧。我实测发
现,根本只用到gpu的vram,gpu 只有5-10%在跑,效能不是最大的因素,反而cpu和ram都
跑到5x-7x%。
※ 编辑: daniem1314 (114.136.133.8 台湾), 08/10/2019 10:23:36
23F:推 jameschiou: gpu使用率太低可能要检查一下 训练时不太可能5~10% @@08/11 22:37
是我看的检测程式不对,win10的只会低於10%,用gpu-z都是85~100%在跑
※ 编辑: daniem1314 (223.136.118.75 台湾), 08/12/2019 17:26:51
24F:→ chang1248w: 工作管理员预设显示不是cuda使用律啊 09/05 19:33