作者error405 (流河=L)
看板AI_Art
标题[闲聊] 1000B巨大开源模型Yuan3.0 Ultra
时间Fri Mar 6 10:29:03 2026
就在AI圈围绕着今早刚出的GPT5.4讨论它聪明又加倍上下文 agent能力直追Claude的时
候
我看到这样的消息 1000B的超大型开源模型
https://www.youtube.com/watch?v=34jdVUEjM2M
https://zhuanlan.zhihu.com/p/2012994991815943690
夭寿骨 这是吼鲸王还大和号 那个Qwen顶配也才两三百B吧
然後它们还说原本是1500B左右 把不太重要的500B砍掉得到更加效能
性能测试照例又是顶尖 哪次不顶尖
当然这种量级一般人别想能本地跑了 纯粹是不能只有我看到= =
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.36.214.158 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/AI_Art/M.1772764147.A.CA3.html
※ 编辑: error405 (114.36.214.158 台湾), 03/06/2026 10:31:00
1F:推 ct13579: 蛤 真假 03/06 12:12
2F:→ necrophagist: 之前Kimi k2.5也是1000B 03/06 12:49
3F:→ error405: 听说有三家 还有一家不知啥 03/06 12:59
4F:推 newyorker54: kim 是1.5t吧!越大越没有效率 03/06 12:59
5F:推 newyorker54: 参数越大反而去挤压到上下文容量的资源 03/06 13:02
6F:推 newyorker54: Kimi K2.5在大约15兆个混合视觉和文本令牌上进行了训 03/06 13:13
7F:→ newyorker54: 练 03/06 13:13
8F:推 dragon6: 好奇到底塞了多少拉基给它吃 03/06 15:53