作者ncufalcon (ncufalcon)
看板PC_Shopping
标题[菜单] 45K AI测试机
时间Tue Jun 25 15:41:35 2024
已买/未买/已付订金(元):未买
预算/用途: 预算45K,用於测试Olama +RAG模组,锁定4070。因为是以显卡
为主,其他的就依照预算搭配CPU。因为要跑Windows平台,记忆体预计买64G
;SSD也想分成两个,一个系统,一个放LLM+RAG
CPU (中央处理器):AMD【6核】Ryzen5 7500F 3.7GHz(Turbo 5.0GHz)/
ZEN4/6C12T/快取32MB/65W/无外盒/含散热器/代理商三年
MB (主机板):【重磅价】华硕 DUAL-RTX4070-O12G+华硕 TUF GAMING
B650-E WIFI+WD_BLACK SN850X 1TB+EVGA 850 G6
RAM (记忆体):十铨 TEAM T-CREATE EXPERT DDR5-6000 64G(32G*2)-黑
(CL34/支援XMP&EXPO)
VGA (显示卡):同重磅
ooler (散热器):【救赎】Sinya 欣亚 S200TG 玻璃透侧机壳+Thermalright
利民 Peerless Assassin 120 绝双刺客
SSD (固态硬碟):Solidigm P44 Pro 1TB/M.2 PCIe Gen4/读:7000M/
写:6500M/五年保固 (双散热片)
HDD (硬碟):无
PSU (电源供应器):同重磅
CHASSIS (机壳):同救赎
MONITOR (萤幕):沿用
Mouse/KB (鼠键):沿用
OS (作业系统):自备
其它 (自填):
总价 (未税/含税):44929
没有特殊品牌洗好,第二个SSD只是选择有带散热片,写入速度不错的。
请各位先进指点,是否还有可以修改的
谢谢大家
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 1.171.103.113 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/PC_Shopping/M.1719301297.A.F33.html
1F:→ otosaka: 要64G怎麽不组126K+DDR4 42.72.140.224 06/25 15:43
您是说intel 12600K吗? 我不知道AMD的差异,当然也可以换
2F:→ otosaka: 然後你说锁定4070 结果买4070S..? 42.72.140.224 06/25 15:44
3F:→ otosaka: 跑AI不买大VRAM的4060ti 16G吗 42.72.140.224 06/25 15:44
回o大,因为以TFLOPS数据来看,跑LLM方面,4070还是比4060系列好一点
请参考国外网站比较
https://reurl.cc/ezlZoj
※ 编辑: ncufalcon (1.171.103.113 台湾), 06/25/2024 15:55:48
4F:→ Zenryaku: 要大ram去组ddr4吧,现在d5 64g太贵 27.242.161.33 06/25 15:54
5F:→ Zenryaku: 显卡挑五年保的 27.242.161.33 06/25 15:55
6F:→ Zenryaku: 记忆体价钱少一半 你显卡可以上super 27.242.161.33 06/25 15:57
7F:→ Zenryaku: AM5不能用ddr4 所以要换intel 27.242.161.33 06/25 15:57
8F:→ otosaka: 70/70S跑起来一定比4060ti强 但VRAM不够 42.72.140.224 06/25 15:59
9F:→ otosaka: 就是不够 42.72.140.224 06/25 15:59
10F:推 RoarLiao: 哥,llama3:8b 就要16G vram 61.216.44.21 06/25 16:01
11F:→ RoarLiao: 您跑LLM 要直接略过llama3 吗? 61.216.44.21 06/25 16:01
12F:→ RoarLiao: 像上面o大说的,这不是速度问题是门槛 61.216.44.21 06/25 16:02
13F:→ chocoball: 我的怎麽才4.7gb.. 112.78.83.42 06/25 16:03
14F:→ RoarLiao: 还是您先买4070s 然後发现跑不动了 61.216.44.21 06/25 16:03
15F:→ RoarLiao: 我去二手版等您xd 61.216.44.21 06/25 16:03
16F:推 RoarLiao: 楼上c大,您试试在ollama 下这个指令 61.216.44.21 06/25 16:12
17F:→ RoarLiao: ollama run llama3:8b-text-fp16 61.216.44.21 06/25 16:12
18F:→ RoarLiao: 看还是不是 4.7gb 61.216.44.21 06/25 16:12
19F:推 bighta83330: VRAM不够的情况你模型放不进去效能再 118.163.153.95 06/25 16:18
20F:→ bighta83330: 好都白搭吧 除非你要调整精度 118.163.153.95 06/25 16:18
21F:推 abc0922001: 我4060Ti-16G有试 llama3,超~~慢的 203.66.179.162 06/25 16:36
22F:→ abc0922001: 所以现在还是继续用ChatGPT= = 203.66.179.162 06/25 16:37
23F:嘘 kaltu: 跑车速度肯定比卡车快,但你货物放不进去有 100.8.245.106 06/26 06:50
24F:→ kaltu: 屁用 100.8.245.106 06/26 06:50