作者zzedm (edm)
看板ask
標題[請問] 對大型語言模型神經網路的理解這樣對嗎
時間Tue Jun 24 14:05:41 2025
https://reurl.cc/o8lgn5
https://reurl.cc/4LEaZD
哪個解釋較正確
有人知道嗎?
謝謝
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 111.249.187.67 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/ask/M.1750745143.A.E9C.html
1F:→ bajiqa: 請google,除非你期望ask版有這樣專業的人才能回答 06/24 15:16
2F:推 StellaNe: 都對 但前者只說明了資源來源 後者比較接近運作的本質 06/24 15:40
3F:推 s0914714: LLM不能爬網路資料 LLM單純就是預測下一個token 06/24 22:25
4F:推 yeeouo: 可以把它們的回答拿去問對方 06/25 12:01
5F:→ yeeouo: 讓他們互相解釋和討論 06/25 12:01
6F:→ yeeouo: 另外可以問的深入一點 06/25 12:01
7F:→ yeeouo: 例如可以問transformer架構和多頭注意力 06/25 12:01
8F:→ yeeouo: 可以幫助了解主流大語言模型的本質 06/25 12:01
9F:→ yunf: 參考參考就好 他這個就是一個很不自然的答案就像一張扭曲的 06/26 00:52
10F:→ yunf: 照片 06/26 00:52