Tech_Job 板


LINE

阿肥外商碼農阿肥啦! 目前技術太多都說得太雲裡霧裡,但是截至目前為止針對o1其實OpenAI透露出來的技術細 節都不如過往得多,像之前GPT-4跟GPT-3.5過往還有完整的文件跟引用可以窺探,所以就 不做過份的臆測了。 以目前的一些文件上有提到的可以確定這次o1使用了CoT這絕對是一個Agent沒錯(跟過往 的單一模型不一樣),所以Response Time也會比過往再調用GPT-4o還要久。所謂的CoT本 質上就是一系列分解步驟,讓模型先分解問題再一步一步到最後結果,目前很多研究都發 現針對CoT再進行微調是有用的( https://arxiv.org/abs/2305.14045 ),所以這種對問 題 拆解迭代算是一種拉高對模型能力上限的方法。 然後目前RL for LLM有很多新的方法,像KTO這類方法將模型去比較兩兩對話的問題轉換 成一個BSO(二元訊號優化)的問題,研究就發現到相比傳統的RLHF甚至DPO,KTO的效果能 起到很好的Regularization(正規化)作用,對比DPO有時候還會過擬和、難以收束優化 不易訓練等問題,KTO可以讓收集數據更簡單(只要收集正負樣本)而且效果也不差。 另外就是GPT-2 guidance 的方法也算是這幾年比較重要的研究,當前包含谷歌 Deepmind 也發現通過不同種類的LLM不論大小其實也都有對主模型起到類蒸餾的效果,結果也是會 比你單做SFT或RLFH還要好,不過如果是同一個模型重複迭代就有很高的機會發生Model C ollapse 的問題,這可以從統計學上做很好的解釋,詳細有興趣的就自己去看Paper。 以當前來說,我不太認為o1對業界有掀起很高的技術壁壘,反而從這次OpenAI一反常態的 保守有可能推測僅是對現有技術的組合拳。這有可能顯示單一LLM模型這樣訓練下逼近上 限的事實(每家模型大廠可能最後表現都不會差異到哪裡去)。 以上 --



※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 49.216.223.33 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Tech_Job/M.1726707601.A.130.html ※ 編輯: sxy67230 (49.216.223.33 臺灣), 09/19/2024 09:01:57
1F:推 abc12812 : 你這樣講 感覺AI泡沫就快爆了09/19 09:16
當前還有很多商業應用還可以探索,不至於泡沫就是了,而且很多商業應用是有既定模式 的,所以去討論AGI有沒有意義就多了。 ※ 編輯: sxy67230 (49.216.223.33 臺灣), 09/19/2024 09:22:39
2F:推 ayianayian : AI軟體有了,但是對應的硬體還在孵 09/19 09:25
3F:推 nckuff : 跨某 有沒有外行人也能聽得懂的講法 09/19 10:03
4F:→ nckuff : 所以還是跌代逼近嗎 那思考一說又從何而來09/19 10:04
5F:→ DrizztMon : AI不會泡沫 但不要過度預估LLM上限 09/19 10:11
6F:→ Izangel : 看Claude多久推出競品就知道有沒有壁壘 09/19 10:36
7F:推 jack529 : https://reurl.cc/4dbO0V 09/19 13:10
8F:→ jack529 : 不錯了啦 比起4o 智能上提升不少 09/19 13:11
9F:推 OSDim : 怎麼好像每個版都有一個阿肥==09/19 13:47
10F:推 y800122155 : 說穿了o1就是自己做了prompt engineer 的工作,但這 09/19 14:24
11F:→ y800122155 : 並不代表能推論出各家模型最終能力都差不多吧?只能 09/19 14:24
12F:→ y800122155 : 說prompt engineer 跟一般使用者用起來的效果差異會09/19 14:24
13F:→ y800122155 : 變小吧09/19 14:24
剛剛下班才看到,這邊的CoT跟你網路上看到的CoT差異很大喔!傳統上下step by step那 個是prompt engineer沒錯,但這次o1的CoT是類似於隱式設計進去先讓模型生成多個取樣 步驟再像鏈一樣一步一步思考,這也是為什麼當前很多示範都顯示出他很慢,也是我為什 麼會說這次的模型絕對是一個Agent而非傳統意義上的LLM。單一模型存在上限主要也是從 這次OpenAI沒有釋出GPT系列以及其他廠家的技術報告推論出來單一LLM逼近上限的事實, 主要可能原因還是在於高品質數據本身就存在上限,要再提升就要靠類蒸餾(Boostrap) 等方法。至於技術壁壘我認為還是不存在的,畢竟這個谷歌Deepmind大廠其實早在年初也 有類似的技術發表出來了,所以我才會說以OpenAI這次反常到不透露細節的作法,很可能 是怕被競品出現。
14F:推 yutaka28 : 這樣假如沒甚麼技術壁壘,也只代表普通人技能更....09/19 15:51
※ 編輯: sxy67230 (1.162.76.16 臺灣), 09/19/2024 20:00:48
15F:推 strlen : 谷歌的壁壘就是自己啊 看那個生圖AI還不敢開放 笑死 09/19 22:49
16F:推 create8 : 幹,感謝分享,雖然我看不懂,但我知道 ai 真的比 09/20 12:09
17F:→ create8 : 我強了….. 09/20 12:09
18F:推 aria0520 : o1根本沒壁壘 deepmind也提了類似概念 09/20 15:53
19F:→ aria0520 : 老實說AI研發能力我還是看好谷歌 09/20 15:54
20F:→ aria0520 : scale on infer不是本質上的prompt engineer 09/20 15:54
21F:→ aria0520 : 在訓練時就內嵌在token間cot了 09/20 15:54
22F:→ aria0520 : 但現在各巨頭都已經在搞這個 openai見不妙先佔高地 09/20 15:55







like.gif 您可能會有興趣的文章
icon.png[問題/行為] 貓晚上進房間會不會有憋尿問題
icon.pngRe: [閒聊] 選了錯誤的女孩成為魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一張
icon.png[心得] EMS高領長版毛衣.墨小樓MC1002
icon.png[分享] 丹龍隔熱紙GE55+33+22
icon.png[問題] 清洗洗衣機
icon.png[尋物] 窗台下的空間
icon.png[閒聊] 双極の女神1 木魔爵
icon.png[售車] 新竹 1997 march 1297cc 白色 四門
icon.png[討論] 能從照片感受到攝影者心情嗎
icon.png[狂賀] 賀賀賀賀 賀!島村卯月!總選舉NO.1
icon.png[難過] 羨慕白皮膚的女生
icon.png閱讀文章
icon.png[黑特]
icon.png[問題] SBK S1安裝於安全帽位置
icon.png[分享] 舊woo100絕版開箱!!
icon.pngRe: [無言] 關於小包衛生紙
icon.png[開箱] E5-2683V3 RX480Strix 快睿C1 簡單測試
icon.png[心得] 蒼の海賊龍 地獄 執行者16PT
icon.png[售車] 1999年Virage iO 1.8EXi
icon.png[心得] 挑戰33 LV10 獅子座pt solo
icon.png[閒聊] 手把手教你不被桶之新手主購教學
icon.png[分享] Civic Type R 量產版官方照無預警流出
icon.png[售車] Golf 4 2.0 銀色 自排
icon.png[出售] Graco提籃汽座(有底座)2000元誠可議
icon.png[問題] 請問補牙材質掉了還能再補嗎?(台中半年內
icon.png[問題] 44th 單曲 生寫竟然都給重複的啊啊!
icon.png[心得] 華南紅卡/icash 核卡
icon.png[問題] 拔牙矯正這樣正常嗎
icon.png[贈送] 老莫高業 初業 102年版
icon.png[情報] 三大行動支付 本季掀戰火
icon.png[寶寶] 博客來Amos水蠟筆5/1特價五折
icon.pngRe: [心得] 新鮮人一些面試分享
icon.png[心得] 蒼の海賊龍 地獄 麒麟25PT
icon.pngRe: [閒聊] (君の名は。雷慎入) 君名二創漫畫翻譯
icon.pngRe: [閒聊] OGN中場影片:失蹤人口局 (英文字幕)
icon.png[問題] 台灣大哥大4G訊號差
icon.png[出售] [全國]全新千尋侘草LED燈, 水草

請輸入看板名稱,例如:iOS站內搜尋

TOP