作者ncufalcon (ncufalcon)
看板PC_Shopping
標題[菜單] 45K AI測試機
時間Tue Jun 25 15:41:35 2024
已買/未買/已付訂金(元):未買
預算/用途: 預算45K,用於測試Olama +RAG模組,鎖定4070。因為是以顯卡
為主,其他的就依照預算搭配CPU。因為要跑Windows平台,記憶體預計買64G
;SSD也想分成兩個,一個系統,一個放LLM+RAG
CPU (中央處理器):AMD【6核】Ryzen5 7500F 3.7GHz(Turbo 5.0GHz)/
ZEN4/6C12T/快取32MB/65W/無外盒/含散熱器/代理商三年
MB (主機板):【重磅價】華碩 DUAL-RTX4070-O12G+華碩 TUF GAMING
B650-E WIFI+WD_BLACK SN850X 1TB+EVGA 850 G6
RAM (記憶體):十銓 TEAM T-CREATE EXPERT DDR5-6000 64G(32G*2)-黑
(CL34/支援XMP&EXPO)
VGA (顯示卡):同重磅
ooler (散熱器):【救贖】Sinya 欣亞 S200TG 玻璃透側機殼+Thermalright
利民 Peerless Assassin 120 絕雙刺客
SSD (固態硬碟):Solidigm P44 Pro 1TB/M.2 PCIe Gen4/讀:7000M/
寫:6500M/五年保固 (雙散熱片)
HDD (硬碟):無
PSU (電源供應器):同重磅
CHASSIS (機殼):同救贖
MONITOR (螢幕):沿用
Mouse/KB (鼠鍵):沿用
OS (作業系統):自備
其它 (自填):
總價 (未稅/含稅):44929
沒有特殊品牌洗好,第二個SSD只是選擇有帶散熱片,寫入速度不錯的。
請各位先進指點,是否還有可以修改的
謝謝大家
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 1.171.103.113 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/PC_Shopping/M.1719301297.A.F33.html
1F:→ otosaka: 要64G怎麼不組126K+DDR4 42.72.140.224 06/25 15:43
您是說intel 12600K嗎? 我不知道AMD的差異,當然也可以換
2F:→ otosaka: 然後你說鎖定4070 結果買4070S..? 42.72.140.224 06/25 15:44
3F:→ otosaka: 跑AI不買大VRAM的4060ti 16G嗎 42.72.140.224 06/25 15:44
回o大,因為以TFLOPS數據來看,跑LLM方面,4070還是比4060系列好一點
請參考國外網站比較
https://reurl.cc/ezlZoj
※ 編輯: ncufalcon (1.171.103.113 臺灣), 06/25/2024 15:55:48
4F:→ Zenryaku: 要大ram去組ddr4吧,現在d5 64g太貴 27.242.161.33 06/25 15:54
5F:→ Zenryaku: 顯卡挑五年保的 27.242.161.33 06/25 15:55
6F:→ Zenryaku: 記憶體價錢少一半 你顯卡可以上super 27.242.161.33 06/25 15:57
7F:→ Zenryaku: AM5不能用ddr4 所以要換intel 27.242.161.33 06/25 15:57
8F:→ otosaka: 70/70S跑起來一定比4060ti強 但VRAM不夠 42.72.140.224 06/25 15:59
9F:→ otosaka: 就是不夠 42.72.140.224 06/25 15:59
10F:推 RoarLiao: 哥,llama3:8b 就要16G vram 61.216.44.21 06/25 16:01
11F:→ RoarLiao: 您跑LLM 要直接略過llama3 嗎? 61.216.44.21 06/25 16:01
12F:→ RoarLiao: 像上面o大說的,這不是速度問題是門檻 61.216.44.21 06/25 16:02
13F:→ chocoball: 我的怎麼才4.7gb.. 112.78.83.42 06/25 16:03
14F:→ RoarLiao: 還是您先買4070s 然後發現跑不動了 61.216.44.21 06/25 16:03
15F:→ RoarLiao: 我去二手版等您xd 61.216.44.21 06/25 16:03
16F:推 RoarLiao: 樓上c大,您試試在ollama 下這個指令 61.216.44.21 06/25 16:12
17F:→ RoarLiao: ollama run llama3:8b-text-fp16 61.216.44.21 06/25 16:12
18F:→ RoarLiao: 看還是不是 4.7gb 61.216.44.21 06/25 16:12
19F:推 bighta83330: VRAM不夠的情況你模型放不進去效能再 118.163.153.95 06/25 16:18
20F:→ bighta83330: 好都白搭吧 除非你要調整精度 118.163.153.95 06/25 16:18
21F:推 abc0922001: 我4060Ti-16G有試 llama3,超~~慢的 203.66.179.162 06/25 16:36
22F:→ abc0922001: 所以現在還是繼續用ChatGPT= = 203.66.179.162 06/25 16:37
23F:噓 kaltu: 跑車速度肯定比卡車快,但你貨物放不進去有 100.8.245.106 06/26 06:50
24F:→ kaltu: 屁用 100.8.245.106 06/26 06:50