作者idolater (strawberry of Wrath)
看板VideoCard
标题[请益]AI算图,新的3090/4080/4070ti怎麽选?
时间Sun Feb 26 14:16:05 2023
如题,全新的3090不好找,店家开38900元。买卡目的是算AI图,主要跑Stable Diffusion,想请问跟市面上4070ti,均价29000-33000。,4080,均价42000-49900相比,哪个比较划算?
执着的点是3090的24g记忆体,不知道是否比较有帮助,还有性价比。谢谢!
-----
Sent from JPTT on my Google Pixel 5.
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 123.110.7.231 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/VideoCard/M.1677392169.A.A81.html
1F:推 hermithsieh: 能上4系列比较没有悬念 02/26 15:22
2F:推 greg7575: ram越大越好 02/26 15:33
3F:→ matrox323: 4090..才有性价比 02/26 15:56
4F:→ tint: 只是玩玩的话 8GB VRAM就能出图 自己训练VRAM愈大愈好 02/26 23:05
5F:推 klm619: 4090 02/27 12:03
6F:→ whotear: google:stable diffusion 记忆体 02/27 16:52
7F:→ mystique: 应该要看你业务规模需要什麽生产力的计算力才对。如果 03/01 07:27
8F:→ mystique: 案件多那两套电脑配两张卡会比一张顶级卡有用多了 03/01 07:27
9F:→ xephon: 4090 03/01 09:10
10F:推 aalluubbaa: 看你业务怎麽需求,训练的话很多colab的解决方案。30 03/05 21:40
11F:→ aalluubbaa: 60 12g性价比最高,你生图也不会需要秒进秒出,高阶 03/05 21:40
12F:→ aalluubbaa: 卡如果vram不够高之後反而不会那麽棒。另一张Rtx a40 03/05 21:40
13F:→ aalluubbaa: 00看国外论坛也有在推,vram 24gb 03/05 21:40
14F:推 tint: RTX A4000的VRAM是16GB 03/07 06:33
15F:推 fomzantom: 绘图卡64GB 但是钱不够 03/14 23:16
16F:推 fomzantom: 抱歉 是48GB 03/14 23:18
17F:→ saimeitetsu: Ram不够的话会算到大概95~98%的时候跟你说记忆体炸 03/19 23:04
18F:→ saimeitetsu: 了然後全部重来要降步骤和解析度 03/19 23:04