作者westwestman (北北東先生)
看板MobileComm
標題[問題] Notebooklm是不是很難用(歡迎打臉
時間Sat Sep 6 22:52:43 2025
如題
近期整天泡在notebooklm裡面
研究要怎麼正確使用此AI工具
目前感想:我覺得notebooklm超難用
(歡迎打臉
前陣子有發文詢問notebooklm怎麼用
得到結論是別用他來推論
要用他來挖資料或是產大綱
因為此軟體是主打沒有幻覺
我實驗之後沒幻覺並非真的沒幻覺,要挖到我要的資料,超級無敵困難
(可能相較沒有但還是有幻覺且難以辨別
以下為我的實驗心得:
來源:
某家公司10年的年報(共10個pdf檔案)
目標:
我希望可以抓出10年年報的生產量
(年報裡的文字:生產量值
成功條件:
10年的生產量值數字都要正確
正確=每一年數字都跟年報寫的一模一樣
失敗1=沒有資料
失敗2=產出部分資料,但有產出的都對
失敗3=產出完整資料,但數字錯誤
中文版:
1.找出銷售量值=失敗1
2.在(五)營運概況裡找生產量值=失敗1
3.找在(五)營運概況的(六)..生產量值=失敗2
4.將3的prompt產出答案後,再打「我看2023年明明有」=成功
(這邊成功=沒意義
如果我需要人工確認每個數字是否正確,那我用這個幹嘛
5.清空資料後,重新執行一次4.=失敗2
(我不敢相信這個結果是失敗
英文版:
上面1.翻英文=失敗2
上面2.翻英文=失敗2
上面3.翻英文=失敗3
上面4.翻英文=失敗3
(翻英文=把1.2.3.丟進chatgpt翻英文
(過程中也問chatgpt叫他幫我改prompt
10幾版都失敗
(每一版都是執行1.2.3.4.的流程
最神奇的是:
實驗過程中,同樣的prompt打兩次
竟然會發生從失敗2跳到成功
(同樣來源,同樣prompt,得出的結果竟然不一樣)
過去成功的prompt清空資料重打一次,竟然無法成功
實驗下來感想:
1.
與其問notebooklm叫他找資料,我不如丟檔案到chatgptgrok叫他幫我找文件中的生產量
值
(grok跑出數字全對
2.
使用限定來源的notebooklm
同樣prompt下兩次兩次答案不一樣
(是一個字都沒動連貼兩次
3.
主打沒幻覺的notebooklm
使用英文問,產出有對有錯(錯誤程度5%
用中文問,得到答案幾乎都不全
(錯誤程度5%
代表我要全部確認後才能抓出那5%
我寧願他是100%資料錯我可以換prompt解決
4.
成功經驗之後,清空資料後,同樣來源跟prompt,再跑一次,跑出來結果是失敗
實驗中,有那麼一刻覺得是不是我不會用
(直到同樣來源,我連打兩次prompt跑出結果不同我直接傻眼
希望有notebooklm高手可以直接回一篇
或是直接在留言板
在跟我同樣來源下(公司年報為公開資訊
使用你的prompt多次且成功抓到特定數字
或是直接噴我是不是不會用
並直接秀一波你怎麼依賴notebooklm為你省時間
期待高手分享一波
----
Sent from
BePTT on my iPhone17,3
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 27.247.68.188 (臺灣)
※ 文章網址: https://webptt.com/m.aspx?n=bbs/MobileComm/M.1757170365.A.DD4.html
2F:推 NX9999 : 感謝樓上D大@@ 09/06 23:14
3F:推 isaacisaac : 我覺得是你這個需求其實跟它產品定位不符 09/07 00:37
4F:推 HCWUlysses : 太長廢話太多的YouTube 懶得看想快速知道內容時蠻 09/07 00:43
5F:→ HCWUlysses : 方便 09/07 00:43
6F:推 ACGB : 年報是否內嵌了CID字型,又沒有提供ToUnicode映射表 09/07 01:04
7F:→ ACGB : 即複製文字變亂碼?是的話會造成AI讀取垃圾亂碼文字 09/07 01:06
8F:推 ACGB : 導致分析困難(垃圾進垃圾出) 09/07 01:23
9F:噓 jimmyonnet : 問題是跟這個板有什麼關係? 09/07 02:06
10F:→ psion : LLM要沒有幻覺是不可能的 它是在算機率 不是邏輯 09/07 04:12
11F:推 suyihua : 推分享 09/07 07:12
12F:→ han0208 : 只適合讀筆記。年報要結構化且文字描述讓AI理解。 09/07 09:43
13F:推 abc0922001 : 我最近用 gistr.so ,你可以試試看 09/07 10:20
14F:→ square4 : 如果chatgpt、grok能正確回答,notebooklm還要預處 09/07 10:27
15F:→ square4 : 理,顯然後者尚須改進 09/07 10:27
16F:推 doubi : notebooklm 適合輸入逐字稿或是會議記錄,然後未來 09/07 11:23
17F:→ doubi : 用自然語言問他問題回憶 09/07 11:23
18F:→ doubi : 而不是輸入一個報表要他進行分析推理 09/07 11:23
19F:→ doubi : 白話說就是,你要給更多基礎資料,不能經過太多整 09/07 11:24
20F:→ doubi : 理,那反而會讓它變難用 09/07 11:24
21F:推 Purin777 : rag就是過時的垃圾,無誇飾 09/07 11:25
22F:→ doubi : 你直接輸入高度整理的 pdf,反而容易出現辨識能力 09/07 11:25
23F:→ doubi : 差的情況 09/07 11:25
24F:→ Purin777 : 現在上下文空間這麼大,想不出理由使用agent架構翻 09/07 11:26
25F:→ Purin777 : 資料 09/07 11:26
26F:→ PinPinky : 這篇是發了幾個版 09/07 12:53
27F:推 abc0922001 : 股票板也有發,我心想不是推文過怎麼不見了 09/07 13:44
28F:→ abc0922001 : 原來我是在手機板看到的 09/07 13:44
29F:推 Porops : 同樣來源,同樣prompt結果不一樣是很正常的,因為 09/08 15:43
30F:→ Porops : 有溫度設定,調整溫度設定就可以讓結果趨於一致, 09/08 15:43
31F:→ Porops : 這是為了讓AI的回答更有創造性,因此給予的隨機性 09/08 15:43
32F:→ Porops : 另外,你覺得適合的報表格式其實和AI熟悉的各式不 09/08 15:44
33F:→ Porops : 一樣,你想要做的和NotebookLM擅長的其實不太一樣 09/08 15:44
34F:→ Porops : 上下文空間也是假議題,雖然號稱百萬,但實際輸入 09/08 15:46
35F:→ Porops : 越大注意力分散、遵循指令的能力也越差,agent能力 09/08 15:46
36F:→ Porops : 還是必須的了只是在不同地方做不同事而已 09/08 15:46
37F:→ Porops : 利申我是Gemini2.5Pro的重度使用者,在那之前也是C 09/08 15:46
38F:→ Porops : laude4的百萬token重度使用者 09/08 15:46
39F:→ Porops : RAG確實過時了這點我倒是認同,但我們需要的是另一 09/08 15:47
40F:→ Porops : 個有效率的抓取資料方式,而不是無限更大的上下文 09/08 15:47