作者zzedm (edm)
看板ask
标题[请问] 对大型语言模型神经网路的理解这样对吗
时间Tue Jun 24 14:05:41 2025
https://reurl.cc/o8lgn5
https://reurl.cc/4LEaZD
哪个解释较正确
有人知道吗?
谢谢
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 111.249.187.67 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/ask/M.1750745143.A.E9C.html
1F:→ bajiqa: 请google,除非你期望ask版有这样专业的人才能回答 06/24 15:16
2F:推 StellaNe: 都对 但前者只说明了资源来源 後者比较接近运作的本质 06/24 15:40
3F:推 s0914714: LLM不能爬网路资料 LLM单纯就是预测下一个token 06/24 22:25
4F:推 yeeouo: 可以把它们的回答拿去问对方 06/25 12:01
5F:→ yeeouo: 让他们互相解释和讨论 06/25 12:01
6F:→ yeeouo: 另外可以问的深入一点 06/25 12:01
7F:→ yeeouo: 例如可以问transformer架构和多头注意力 06/25 12:01
8F:→ yeeouo: 可以帮助了解主流大语言模型的本质 06/25 12:01
9F:→ yunf: 参考参考就好 他这个就是一个很不自然的答案就像一张扭曲的 06/26 00:52
10F:→ yunf: 照片 06/26 00:52