作者westwestman (北北东先生)
看板MobileComm
标题[问题] Notebooklm是不是很难用(欢迎打脸
时间Sat Sep 6 22:52:43 2025
如题
近期整天泡在notebooklm里面
研究要怎麽正确使用此AI工具
目前感想:我觉得notebooklm超难用
(欢迎打脸
前阵子有发文询问notebooklm怎麽用
得到结论是别用他来推论
要用他来挖资料或是产大纲
因为此软体是主打没有幻觉
我实验之後没幻觉并非真的没幻觉,要挖到我要的资料,超级无敌困难
(可能相较没有但还是有幻觉且难以辨别
以下为我的实验心得:
来源:
某家公司10年的年报(共10个pdf档案)
目标:
我希望可以抓出10年年报的生产量
(年报里的文字:生产量值
成功条件:
10年的生产量值数字都要正确
正确=每一年数字都跟年报写的一模一样
失败1=没有资料
失败2=产出部分资料,但有产出的都对
失败3=产出完整资料,但数字错误
中文版:
1.找出销售量值=失败1
2.在(五)营运概况里找生产量值=失败1
3.找在(五)营运概况的(六)..生产量值=失败2
4.将3的prompt产出答案後,再打「我看2023年明明有」=成功
(这边成功=没意义
如果我需要人工确认每个数字是否正确,那我用这个干嘛
5.清空资料後,重新执行一次4.=失败2
(我不敢相信这个结果是失败
英文版:
上面1.翻英文=失败2
上面2.翻英文=失败2
上面3.翻英文=失败3
上面4.翻英文=失败3
(翻英文=把1.2.3.丢进chatgpt翻英文
(过程中也问chatgpt叫他帮我改prompt
10几版都失败
(每一版都是执行1.2.3.4.的流程
最神奇的是:
实验过程中,同样的prompt打两次
竟然会发生从失败2跳到成功
(同样来源,同样prompt,得出的结果竟然不一样)
过去成功的prompt清空资料重打一次,竟然无法成功
实验下来感想:
1.
与其问notebooklm叫他找资料,我不如丢档案到chatgptgrok叫他帮我找文件中的生产量
值
(grok跑出数字全对
2.
使用限定来源的notebooklm
同样prompt下两次两次答案不一样
(是一个字都没动连贴两次
3.
主打没幻觉的notebooklm
使用英文问,产出有对有错(错误程度5%
用中文问,得到答案几乎都不全
(错误程度5%
代表我要全部确认後才能抓出那5%
我宁愿他是100%资料错我可以换prompt解决
4.
成功经验之後,清空资料後,同样来源跟prompt,再跑一次,跑出来结果是失败
实验中,有那麽一刻觉得是不是我不会用
(直到同样来源,我连打两次prompt跑出结果不同我直接傻眼
希望有notebooklm高手可以直接回一篇
或是直接在留言板
在跟我同样来源下(公司年报为公开资讯
使用你的prompt多次且成功抓到特定数字
或是直接喷我是不是不会用
并直接秀一波你怎麽依赖notebooklm为你省时间
期待高手分享一波
----
Sent from
BePTT on my iPhone17,3
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 27.247.68.188 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/MobileComm/M.1757170365.A.DD4.html
2F:推 NX9999 : 感谢楼上D大@@ 09/06 23:14
3F:推 isaacisaac : 我觉得是你这个需求其实跟它产品定位不符 09/07 00:37
4F:推 HCWUlysses : 太长废话太多的YouTube 懒得看想快速知道内容时蛮 09/07 00:43
5F:→ HCWUlysses : 方便 09/07 00:43
6F:推 ACGB : 年报是否内嵌了CID字型,又没有提供ToUnicode映射表 09/07 01:04
7F:→ ACGB : 即复制文字变乱码?是的话会造成AI读取垃圾乱码文字 09/07 01:06
8F:推 ACGB : 导致分析困难(垃圾进垃圾出) 09/07 01:23
9F:嘘 jimmyonnet : 问题是跟这个板有什麽关系? 09/07 02:06
10F:→ psion : LLM要没有幻觉是不可能的 它是在算机率 不是逻辑 09/07 04:12
11F:推 suyihua : 推分享 09/07 07:12
12F:→ han0208 : 只适合读笔记。年报要结构化且文字描述让AI理解。 09/07 09:43
13F:推 abc0922001 : 我最近用 gistr.so ,你可以试试看 09/07 10:20
14F:→ square4 : 如果chatgpt、grok能正确回答,notebooklm还要预处 09/07 10:27
15F:→ square4 : 理,显然後者尚须改进 09/07 10:27
16F:推 doubi : notebooklm 适合输入逐字稿或是会议记录,然後未来 09/07 11:23
17F:→ doubi : 用自然语言问他问题回忆 09/07 11:23
18F:→ doubi : 而不是输入一个报表要他进行分析推理 09/07 11:23
19F:→ doubi : 白话说就是,你要给更多基础资料,不能经过太多整 09/07 11:24
20F:→ doubi : 理,那反而会让它变难用 09/07 11:24
21F:推 Purin777 : rag就是过时的垃圾,无夸饰 09/07 11:25
22F:→ doubi : 你直接输入高度整理的 pdf,反而容易出现辨识能力 09/07 11:25
23F:→ doubi : 差的情况 09/07 11:25
24F:→ Purin777 : 现在上下文空间这麽大,想不出理由使用agent架构翻 09/07 11:26
25F:→ Purin777 : 资料 09/07 11:26
26F:→ PinPinky : 这篇是发了几个版 09/07 12:53
27F:推 abc0922001 : 股票板也有发,我心想不是推文过怎麽不见了 09/07 13:44
28F:→ abc0922001 : 原来我是在手机板看到的 09/07 13:44
29F:推 Porops : 同样来源,同样prompt结果不一样是很正常的,因为 09/08 15:43
30F:→ Porops : 有温度设定,调整温度设定就可以让结果趋於一致, 09/08 15:43
31F:→ Porops : 这是为了让AI的回答更有创造性,因此给予的随机性 09/08 15:43
32F:→ Porops : 另外,你觉得适合的报表格式其实和AI熟悉的各式不 09/08 15:44
33F:→ Porops : 一样,你想要做的和NotebookLM擅长的其实不太一样 09/08 15:44
34F:→ Porops : 上下文空间也是假议题,虽然号称百万,但实际输入 09/08 15:46
35F:→ Porops : 越大注意力分散、遵循指令的能力也越差,agent能力 09/08 15:46
36F:→ Porops : 还是必须的了只是在不同地方做不同事而已 09/08 15:46
37F:→ Porops : 利申我是Gemini2.5Pro的重度使用者,在那之前也是C 09/08 15:46
38F:→ Porops : laude4的百万token重度使用者 09/08 15:46
39F:→ Porops : RAG确实过时了这点我倒是认同,但我们需要的是另一 09/08 15:47
40F:→ Porops : 个有效率的抓取资料方式,而不是无限更大的上下文 09/08 15:47