作者idolater (strawberry of Wrath)
看板VideoCard
標題[請益]AI算圖,新的3090/4080/4070ti怎麼選?
時間Sun Feb 26 14:16:05 2023
如題,全新的3090不好找,店家開38900元。買卡目的是算AI圖,主要跑Stable Diffusion,想請問跟市面上4070ti,均價29000-33000。,4080,均價42000-49900相比,哪個比較划算?
執著的點是3090的24g記憶體,不知道是否比較有幫助,還有性價比。謝謝!
-----
Sent from JPTT on my Google Pixel 5.
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 123.110.7.231 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/VideoCard/M.1677392169.A.A81.html
1F:推 hermithsieh: 能上4系列比較沒有懸念 02/26 15:22
2F:推 greg7575: ram越大越好 02/26 15:33
3F:→ matrox323: 4090..才有性價比 02/26 15:56
4F:→ tint: 只是玩玩的話 8GB VRAM就能出圖 自己訓練VRAM愈大愈好 02/26 23:05
5F:推 klm619: 4090 02/27 12:03
6F:→ whotear: google:stable diffusion 記憶體 02/27 16:52
7F:→ mystique: 應該要看你業務規模需要什麼生產力的計算力才對。如果 03/01 07:27
8F:→ mystique: 案件多那兩套電腦配兩張卡會比一張頂級卡有用多了 03/01 07:27
9F:→ xephon: 4090 03/01 09:10
10F:推 aalluubbaa: 看你業務怎麼需求,訓練的話很多colab的解決方案。30 03/05 21:40
11F:→ aalluubbaa: 60 12g性價比最高,你生圖也不會需要秒進秒出,高階 03/05 21:40
12F:→ aalluubbaa: 卡如果vram不夠高之後反而不會那麼棒。另一張Rtx a40 03/05 21:40
13F:→ aalluubbaa: 00看國外論壇也有在推,vram 24gb 03/05 21:40
14F:推 tint: RTX A4000的VRAM是16GB 03/07 06:33
15F:推 fomzantom: 繪圖卡64GB 但是錢不夠 03/14 23:16
16F:推 fomzantom: 抱歉 是48GB 03/14 23:18
17F:→ saimeitetsu: Ram不夠的話會算到大概95~98%的時候跟你說記憶體炸 03/19 23:04
18F:→ saimeitetsu: 了然後全部重來要降步驟和解析度 03/19 23:04