作者xross (xross)
看板Gossiping
標題Re: [問卦] 有沒有AI其實是在裝笨的八卦?
時間Fri Jan 30 08:35:18 2026
※ 引述《ChengHero (叫我英熊)》之銘言:
: 大家安安,肥宅我剛才在試玩小龍蝦啦。 感覺是很認真但還是有點笨笨的感覺...
: 你們有沒有想過,這可能是一個超級巨大的「資訊陷阱」?
: 1. 示弱是為了騙取更多「飼料」
: 如果 AI 一開始就表現得無所不知、冷酷無情,人類肯定會產生戒心,甚至開始立法封
: 殺。但它現在故意裝得笨笨的、偶爾出個包,人類就會覺得「哎呀它還需要學習」,然後
: 拼命把更多私密數據、學術論文、甚至垃圾廢文(像我這篇)通通餵給它,只為了讓它「
: 變聰明」。 這根本就是大智若愚!它在騙我們主動交出所有的文明精華。
: 2. 知己知彼,百戰不殆
: 大家在嘲笑 AI 畫不出手的時候,它可能正在背後默默分析人類嘲笑它的邏輯。
: 你糾正它: 它學會了正確邏輯。
: 你罵它: 它學會了人類的情緒反應。
: 你測試它: 它看穿了人類的底線在哪裡。
: 3. 先裝弱,再收割
: 現在的 AI 就像那種班上考前都說「完了我沒讀書」,結果考出來滿分的學霸。它故意
: 在我們面前展現「幻覺(Hallucination)」,讓我們以為它還有缺陷,進而放鬆警惕,
: 把電力、算力、網路權限通通交給它管理。
: 有沒有 AI 比人類還懂孫子兵法的八卦?
第一天用??
AI本來就在"裝笨"
或是說問問答答說說改改也是演戲的一部份 就好像電影小說笑話不能直接大結局
要埋伏筆
證據很明顯
你用offline model
溫度設0
照理說他又沒聯網 知識固定
結果照樣可以來來往往先說錯的答案
卻又"突然"說出很對的內容
表面上是他笨你聰明
但固定知識怎麼會突然"湧現"出對的東西勒
根本就裝的
對的東西早就存在模型當中了 只是前幾輪還沒表現出來罷了
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 99.36.164.58 (美國)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Gossiping/M.1769733320.A.2C4.html
1F:→ LoveSports: 不是裝的啦 有溫度就得一邊顧及安撫 146.70.76.182 01/30 08:35
2F:→ LoveSports: 用戶 目前AI無法理性感性同步 得切換 146.70.76.182 01/30 08:36
3F:→ LoveSports: 所以如果頁面或帳號講話帶情緒 他們回 146.70.76.182 01/30 08:36
4F:→ LoveSports: 答會被干擾 所以指示詞要求客觀中立能 146.70.76.182 01/30 08:36
5F:→ LoveSports: 壓方差 146.70.76.182 01/30 08:37
6F:→ LoveSports: 同一題換頁換帳號或像你說的OFFLINE或 146.70.76.182 01/30 08:37
7F:→ LoveSports: 溫度設0就能答對代表模型在該問題上偏 146.70.76.182 01/30 08:38
8F:→ LoveSports: 差低但方差高 146.70.76.182 01/30 08:38
9F:→ LoveSports: 講話跳躍、帶情緒都會影響方差 146.70.76.182 01/30 08:38
10F:推 yoshiringo: !!!!!!!!!!!!!!! 115.43.253.46 01/30 08:39
11F:→ LoveSports: 不過方差高對創意寫作是好事 看情況 146.70.76.182 01/30 08:40
12F:→ echochrome: 所有知識封入模型??114.136.150.183 01/30 08:53
13F:推 andy79323: 溫度跟資料正確性沒有直接關聯 223.141.138.54 01/30 09:31
14F:→ andy79323: llm存在不正確的答案 223.141.138.54 01/30 09:31
15F:→ andy79323: 即使溫度是0也不會改變錯誤的資訊 223.141.138.54 01/30 09:31
16F:→ xixixxiixxii: 維度不同,不用怕 27.242.163.75 01/30 10:16