作者chin2049 (YesOrNo)
看板MAC
标题[麦书] 该直上16" M4 pro 还是M2 pro 就好?
时间Fri Jan 17 14:12:33 2025
目前用macbook air m1
想说用这麽久了想换16"用看看
用途是利用空暇时间
写macOS iOS程式 或是 网页
或许还会跑AI试试
电商16"m2 pro目前的价格在6万内
跟16"m4 pro 官网版本差距有快三万(84,900)
想问一下旧版跟新版差距大不大
不知道该不该直上m4 pro
想请教版友
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 36.224.86.9 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/MAC/M.1737094355.A.FB6.html
1F:推 Rougun: 想玩 Ollama 的话看你偏好玩小模型还是大模型也想玩 01/17 15:43
2F:→ Rougun: ram 就愈大愈好啦,小模型且只是写程式应该是没差多少啦 01/17 15:46
3F:→ doubi: M2 跟 M4 速度体感差很多, 尤其是多开应用的时候 01/17 16:47
4F:→ doubi: 我现在就是同时 M2 + M4 在用 XD 01/17 16:48
5F:→ doubi: M2 是公司发的, 很容易让我等待 01/17 16:48
6F:→ crimsonmoon9: 差距蛮大的 但还是要看你的使用状况 01/17 17:37
7F:→ crimsonmoon9: 我想ram大小还是优先 01/17 17:37
8F:推 joumi: 直上 01/17 17:44
9F:推 MOONY135: Ram要大 01/17 18:37
10F:→ KINGWAP: 可以去虾皮找找看有没有保内的M2 max 64G 01/17 19:22
11F:→ KINGWAP: 玩AI推理64G是很基本的 01/17 19:22
12F:推 yhubi: $77,300 原价 $84,900 :: 16 寸 MacBook Pro M4 Pro 可参 01/17 22:03
13F:→ yhubi: 考 01/17 22:03
14F:推 Bambe: 给你参考一下,我之前用 Mac Mini M2 Pro 32G Ram 跑 70b 01/18 00:13
15F:→ Bambe: 模型,大概十分钟跑不到十个字... 01/18 00:13
16F:推 autopass: 70b 45Gb左右,没64g ram真的玩不起 01/18 00:32
17F:→ autopass: 直接串API吧,公司真机密资料看老板要不要赞助 01/18 00:33
18F:推 Bambe: 不过刚测试 32b(19GB) 的速度还算可接受 01/18 00:37
19F:→ crimsonmoon9: ollama用压缩过的模型应该能省一点空间? 01/18 00:39
20F:推 Bambe: 刚测试了跑个 40b(23GB) 的就有点喘了,需要重开机才能跑 01/18 02:19
21F:→ chin2049: 好的 参考一下 01/18 09:34
22F:推 jacklin2002: 有钱想玩就直上,要不然不如不买,买一半那种最浪费 01/18 14:01
23F:→ jacklin2002: 花了一笔钱,然後又得不到想要的效果,白花 01/18 14:01
24F:推 FishYui: 推楼上,之前就是买了一个不上不下的规格用的很有疙瘩 01/19 00:24
25F:推 fastyangmh: 好奇,就算ram满足读取大模型的需求,不过回应速度能 01/19 11:05
26F:→ fastyangmh: 够满足即时性吗?感觉每秒token数会很低 01/19 11:05
27F:推 Louis430: 推 jacklin2002 01/19 18:02
28F:→ crimsonmoon9: 目前影响模型性能的应该都是记忆体频宽问题 尤其是 01/19 18:20
29F:→ crimsonmoon9: 不够用然後用到swap的时候 01/19 18:20
30F:→ crimsonmoon9: 纯推理时的计算性能应该都够用了 01/19 18:20
31F:→ hidexjapan: Mac跑模型就是用时间来换记忆体容量,要快要打只有老 01/20 20:19
32F:→ hidexjapan: 黄啊,之前看评测M4 Pro 回应token每秒就11-13左右 01/20 20:19
33F:→ jhjhs33504: 量化的模型在不同VRAM大小占用GPU/CPU的资源天差地远 01/21 14:40
34F:推 fastyangmh: Jh大可以解释一下,我不太懂为什麽相同量化模型在不同 01/21 22:01
35F:→ fastyangmh: 的vram下,CPU/GPU会有不同吗? 01/21 22:01
36F:推 kt56: 16 寸 MacBook Pro M1 Pro 全新未拆47000 01/26 03:26
37F:推 jhjhs33504: 那种压缩方式并不是无损的 损失部分有不可控的副作用 01/27 21:04
38F:→ jhjhs33504: 同一个量化模型用CPU或用GPU执行的指令集与精度不一样 01/27 21:07
39F:→ jhjhs33504: 排列组合产出的结果品质就是天差地远当然其中差距就是 01/27 21:09
40F:推 jhjhs33504: 需要相当的背景知识去调整执行程序甚至是调整训练方法 01/27 21:13
41F:推 jhjhs33504: 可能要查一下训练模型的机房规模有多大心里才会有概念 01/27 21:26