作者plamc (普兰可)
看板historia
标题Re: [请益] 框架公式派vs细微考证派
时间Thu Mar 27 00:01:34 2025
※ 引述《saltlake (SaltLake)》之铭言:
: 现在有一种「人」,叫做聊天机器人。这种人的知识量可以轻易超过普通
: 人甚至专业学者,但是这种人利用资料处理被询问的问题之可靠度……
这个齁,我才刚测试过微软Copilot (GPT-4)
话说,史怀哲跟华格纳二妻柯西玛是好友,连英文危机都有写,聊天机器人应该抓得到
结果我问两人有何关系,聊天机器人竟然给我回答:没有任何关系
还列出了两人的生卒年,明明有重复时间,却给我说:两人在不同时代
还列出了两人的所属领域,明明都列了音乐,却跟我说:两人领域毫无瓜葛
你说这不就睁眼说瞎话,真的会被它气死,所以现在的聊天机器人还是算了
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 118.166.213.92 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/historia/M.1743004896.A.672.html
1F:→ TKB5566: 所以很多人说AI要取代程式设计师 我也是傻眼 03/27 00:09
2F:推 mangle: AI 搜寻错误率高达6成!ChatGPT、Perplexity 等8大 AI 03/27 00:45
4F:→ mangle: /view/70115?utm_source=copyshare 03/27 00:45
5F:推 vajra0001: gpt还会给我编造假的历史文献 03/27 02:12
6F:→ vajra0001: 之前跟我说左传襄公二十六年有用龙祭天 03/27 02:13
7F:→ vajra0001: 我就觉得我怎麽没读过 一翻 ....好你个gpt 03/27 02:14
8F:推 fw190a: ....不要用gpt追问历史细节,他就是印象派,很多人 03/27 06:42
9F:→ fw190a: 反覆讨论的事情才有些准确性,不同模型也差很多, 03/27 06:42
10F:→ fw190a: 光是你究竟有没有调用它的搜寻网页功能结果就差很 03/27 06:42
11F:→ fw190a: 多。我目前用grok比较多 03/27 06:42
12F:推 moslaa: 越冷门的主题,AI越不准 03/27 10:27
13F:→ moslaa: 这也没办法,AI本质也只是上网找既有资料 03/27 10:28
14F:→ moslaa: 只是它找得快,整理得快而已 03/27 10:28
15F:→ moslaa: 如果既有资料很少,它只好开始鬼扯 03/27 10:29
16F:→ moslaa: 我的解决办法是,关键部分一定问它出处,要明示 03/27 10:29
17F:→ moslaa: 可惜虽然它会听话明示,但"经常"发现它的依据是 03/27 10:30
18F:→ moslaa: 没什麽公信力的网文,如果是冷门题材。 03/27 10:30
19F:→ moslaa: 不过话又说回来,每次遇到这种情况,其实我内心也有松一口 03/27 10:31
20F:→ moslaa: 气:我当人还是有点价值 XD 03/27 10:32
21F:推 ccyaztfe: 目前的AI只能找已经电子化的资料,如果书籍资料只有纸本 03/27 11:18
22F:→ ccyaztfe: 没有电子档,AI一定找不到的~ 03/27 11:18
23F:→ ccyaztfe: 此外,它也只能找免费及有开放的电子书,如果是要付费的 03/27 11:20
24F:→ ccyaztfe: 电子书,它也没办法知道内容。 把AI当人看待就很好理解 03/27 11:21
25F:→ ccyaztfe: 了。AI就是一个只能使用电脑搜寻的人 03/27 11:21
26F:推 mangle: 问出处他还会画虎烂,之前直接丢一个网页,问里面的数字 03/27 11:27
27F:→ mangle: 还会回答错误,我是用免费版chatgpt 03/27 11:27
28F:推 moslaa: 想起来,chatgpt刚出来时,我还曾经坚持要它给学术论文出 03/27 12:01
29F:→ moslaa: 处,它给了,但当我兴奋地要找出来看全文时 03/27 12:02
30F:→ moslaa: google半天确认了它这论文是假的,根本不存在! 03/27 12:02
31F:→ saltlake: 楼上最近再用看看,这毛病照样存在 03/27 12:24
32F:→ saltlake: 机器人肯定不会说谎? 那是小说的设定 03/27 12:25
33F:推 mangle: 目前我觉得免费版对於读论文最好用的方式,是要直接上传 03/27 13:28
34F:→ mangle: 书面档案,然後直接且清楚的询问该论文中的内容,这样比 03/27 13:28
35F:→ mangle: 较有建设性,但我有时候也会怕怕的,所以大致文献我也会 03/27 13:28
36F:→ mangle: 看 03/27 13:28
37F:→ mangle: 只是以前会仔细看,现在变成大概仔细点看,减轻一些负担 03/27 13:29
38F:→ mangle: ,并且多一个人讨论的感觉,他会给你一些思路和反馈,不 03/27 13:30
39F:→ mangle: 一定对,但帮助思考 03/27 13:30
40F:→ saltlake: 楼上那种用法还是免不了普公所指出的潜在问题 03/27 14:46
41F:→ saltlake: 关键在於当前至少商用的大型语言模型并没有逻辑推理能力 03/27 14:47
42F:推 mangle: 是啊 大语言模型很大的好处会用很浅显易懂的语言让你了解 03/27 17:23
43F:→ mangle: 很机车艰深的理论,但你说画图说故事也是,他并没有思考 03/27 17:23
44F:→ mangle: 能力,其实照本宣科,但换个方式照本宣科帮助你阅读,有 03/27 17:23
45F:→ mangle: 效减轻跨领域学习的困难 03/27 17:23
46F:→ mangle: 但光这样就对学习知识有很大的益处,因此以後跨领域变成 03/27 17:29
47F:→ mangle: 新兴赛道,但你说跟传统单一领域深耕30年当然有差距,但 03/27 17:29
48F:→ mangle: 你会给出新的知识融合的赛道,这是过去有但不明显的特徵 03/27 17:29
49F:→ mangle: ,随着科技的进步带来的质变,因此知识量变得不太重要, 03/27 17:30
50F:→ mangle: 反而辩证与思考还有逻辑训练与融合不同领域的思维变得更 03/27 17:30
51F:→ mangle: 重要,这是相对优势产生能力优劣差异。但我还是说句实话 03/27 17:30
52F:→ mangle: ,单一领域深耕的学者,必定会在中後期拓展不同领域,毕 03/27 17:30
53F:→ mangle: 竟单一领域不可能完全分离,随着研究深入,必然会这样, 03/27 17:30
54F:→ mangle: 也别小看传统学者的知识广泛,只是可能知识具有明确的领 03/27 17:30
55F:→ mangle: 域界线范围而已 03/27 17:30
56F:推 kkStBvasut: gpt刚出来时我特地用英文问他 玛丽安东妮是玛丽亚特蕾 03/28 17:38
57F:→ kkStBvasut: 西亚的女儿吗 03/28 17:38
58F:→ kkStBvasut: gpt竟然回答:不是 =,= 03/28 17:39
59F:→ saltlake: 玛丽亚特蕾西亚是玛丽安东妮的女儿吗? 03/28 22:14
60F:→ saltlake: 残念,这问题哄不了今日的聊天机器人 03/28 22:14
61F:推 evysk701: 每次问一些古典文言文献它都会给出超逼真的答案 但直接 04/02 15:40
62F:→ evysk701: 顺着它给的来源去翻整部原文根本找不到来源 连相似的句 04/02 15:41
63F:→ evysk701: 子都没有 04/02 15:41