Stock 板


LINE

※ 引述《breeze0817 ()》之铭言: : 原文标题: : 技术专家:ChatGPT的「幻觉」根本无法解决 : 原文连结: : https://reurl.cc/N0KRy6 : 发布时间: : 2023/08/09 15:58 : 记者署名: : 钜亨网新闻中心 : 原文内容: : 掀起 AI 浪潮的 ChatGPT 尽管可以协助解决很多事情,但也因为会产生虚假的讯息,或 : 误导性的内容,产生「人工智慧幻觉」(hallucinations) 而饱受批评,专家认为这种「 : 幻觉」受到技术与需求之间的限制,根本无法被解决。 : 财富网中文网报导,与 ChatGPT 或其他 AI 聊天机器人相处足够长的时间,很快就会发 : 现它们有时会「编造答案」,这种现象被称为「幻觉」,即机器人做出的捏造或纯粹的编 : 造,对於那些试图让 AI 系统编写文档并完成工作的企业、组织甚至学生,这是一个致命 : 的问题。 : 聊天机器人 Claude 2 的制造商 Anthropic 共同创始人 Daniela Amodei 认为,现在没 : 有任何一种模型能够完全避免产生幻觉,因为它们的设计初衷只是用来预测下一个单词, : 因此模型肯定会有一定的错误率。 : 包括 ChatGPT 的制造商 OpenAI、Anthropic 及其他大型语言模型的 AI 系统主要开发者 : 都表示,他们正努力让这些系统变得更准确,但目前尚不清楚需要多长时间才能达到足够 : 的可靠性。 : 不过,华盛顿大学计算语言学实验室的主任、语言学教授 Emily Bender 认为,「这个问 : 题无法完全解决,因为技术与实际需求之间存在固有的不匹配。」 : Google 已向新闻机构推销一款新闻写作 AI 产品,而作为与 OpenAI 合作的一部分,美 : 联社也在探索使用这项技术,而 OpenAI 正在付费使用美联社的部分存档文本来改进其 A : I 系统。因此,生成式 AI 的可靠性至关重要,麦肯锡全球研究院(McKinsey)预计,这 : 将为全球经济带来相当於 2.6 兆至 4.4 兆美元的收入。 : 心得/评论: : chatGPT访问量一再下滑 : 一窝蜂投资ai伺服器去训练语言模型的 : 越来越有元宇宙的fu糗了 : 散户:这次不一样!! 纯论AI的话 这个问题是一定可以被解决的 讨论chatGPT肯定是无解 顶多提升准确度 提升到你认知不到「错觉」 我自己是觉得用错觉这个词来阐述这个问题 好像满奇怪的 简单思考一下就知道了 假设AI是个人 他肯定会有他自己的认知 他的认知来自於他的资料库 但谁能保证资料库里面的资料100%是对的? 毕竟资料库的资料也是人为产出,或是他的开发者灌入的 最终都会限缩於:「什麽是对的」的这个命题 并且有一个很吊诡的事情是这样的 「你凭什麽认为AI给出的答案是错的,便称作幻觉,难道就是基於人类的共同认知吗?」 这个东西讨论到後面就变成哲学问题了,所以不赘述。 但核心概念是这样 一个人,老师,教授,都会有认知错误,都会出错,为什麽人工智能不会 基於什麽样的原因,你觉得他能掌握100%的真理,这样想想不就知道了 但是基於网速科技提升,资料处理能力加强,程序优化肯定能再进步 回归前面所说的,只要把AI的范围局限性拉大,就能提升正确率阿 比如你设定这个AI就叫做金融投资机器人,甚至叫做台湾金融投资机器人 并且串联所有台湾银行、投资平台、各大当铺的内部资料 那肯定是强的没话说。 你期待一个AI机器人,能贯通世界上所有领域的事情,给你都是正确的答案 那肯定是不切实际。 更何况一定一堆人是这样:「请给我一个完美的python程序。」 「干,你这个根本不完美」 你自己都定义不出来,都不知道什麽叫做完美了,AI怎麽可能会知道 你怎麽连话都说不清楚~ 我自己是觉得AI很神啦,没有战文组的意思,但对於逻辑思考,表述能力不好的人来说 可能不好用 我在某平台上面,买了好几次程式课,每次都没有耐心看完,把作业做完。 chatgpt用了两三天,已经弄出了两个简单的小程式,改善我工作上面的需求 平心而论,我就算认真把课程都上完,自己写,写个1个月,大概都弄不出来。 AI最强大的,就是他给你的资讯里面,是有一定程度的正确率的, 你本来就要能分辨,什麽东西对你有用,然後再引导他帮助你,给出更多有用的资讯, 最後帮助你完成你的目标。 --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 220.136.194.220 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1691634339.A.FC5.html
1F:推 y2468101216 : 他这个幻觉是幻觉一些很明显的是 08/10 10:26
我举个简单的例子给你听 我们弄个AI加法机器人,并且只接受0~3,4个数字 那麽这个机器人的正确率 就是100% ※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:28:41
2F:→ y2468101216 : 比如日本二战被两颗原子弹轰炸,他会有机率说错 08/10 10:27
3F:→ y2468101216 : 回归到程式面的话,简单的程式也会幻觉。 08/10 10:28
4F:→ y2468101216 : 比如一个程式函数只接受一个参数,他会写两个 08/10 10:29
5F:推 Isopod : 你是不是不知道它幻觉产生的内容是什麽?有一些根本 08/10 10:29
6F:→ Isopod : 错误的离谱。而且当你跟他要参考资料时,好一点会跟 08/10 10:29
7F:→ Isopod : 你说它理解错了。可怕一点的会生成不存在的参考资料 08/10 10:29
8F:→ Isopod : 出来 08/10 10:29
9F:→ Isopod : 他根本不是只参考资料库给答案,是给出根本不在资料 08/10 10:30
10F:→ Isopod : 库中自己幻想的答案 08/10 10:30
承上述加法机器人的例子 你key了4和5进去,他会告诉你9 但也有可能,你key柯+大麻进去,他会回答你无罪 所以就看你有没有要赋予他「创造」的能力 你要说他的思辨结果是不对的,一样是看後面的演算法怎麽设定的 ※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:33:37
11F:推 strlen : 生成不存在的东西 这个人类最拿手的勒 打开电视随便 08/10 10:32
12F:推 shawkwei : 4909新复兴营收月增跟年增都100% 08/10 10:32
13F:→ strlen : 转一间新闻台都是生成不存在的东西R XD 08/10 10:33
14F:推 Isopod : 我觉得你要先把你的程式课上好,再来讨论耶QQ 08/10 10:34
你就 去用 加法机器人就好了嘛 是不是肯定不会错
15F:→ strlen : 股板一堆财经新闻 你能分辨哪些是真哪些是假吗 嘻嘻 08/10 10:34
16F:推 kkithh : 敎授那等级的人会知道他讲的话是不是准确,就算表 08/10 10:35
17F:→ kkithh : 面坚持是准确但内心会有底,但AI目前根本无法判断 08/10 10:35
18F:→ kkithh : 自己讲的内容是否准确 08/10 10:35
19F:→ strlen : 齁齁 所以你就能判断你眼前看到每件资讯都为真吗XD 08/10 10:35
20F:→ kkithh : 所以你会看到它一本正经在讲干话 08/10 10:36
范围缩限就能解决这个问题 因为chatgpt目前的设定范围,是无限
21F:→ IBIZA : 会说是幻觉, 就是因为这些不是资料生成 08/10 10:36
22F:→ kkithh : 我会知道我不确定阿,知道差别吗? 08/10 10:36
23F:→ strlen : 每天晚上随便打开一台政论节目 不也都在讲干话 08/10 10:36
24F:→ strlen : 收视率还高到要命 大家爱看得要死 XDDDDD 08/10 10:37
25F:→ IBIZA : 比方说 他叫他写程式, 他会丢给一个不存在的套件 08/10 10:37
26F:→ IBIZA : 一本正经的用这个套件开发程式码 08/10 10:37
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:38:18
27F:→ IBIZA : 这已经不是错不错的问题 08/10 10:37
28F:→ strlen : 你跟不同信仰跟政治的人说话 感觉根本想平行宇宙 08/10 10:38
29F:→ strlen : 怎麽 判断你的说法是正确 他的说法是错误? 08/10 10:38
30F:→ IBIZA : 你先了解一下为什麽会用「幻觉」来形容 08/10 10:38
我理解会什麽叫做幻觉 也理解错误和无中生有的差距 但只是因为他对於人类共同认知的答案 在不熟悉的环境下 有不精准的回答 这个回答来自於他的资料库不够精准 也来自於他的程式设计有问题 你要解决所谓幻觉 暴力破解法就是载入所有的问题和答案 但极端例子来说 11111111111111111111111111+1111111111111111111111111111 他可能就回答不了你了
31F:→ z7956234 : 大型网页版siri,一样捞资料回答一样会出错,都一 08/10 10:39
32F:→ z7956234 : 样。 08/10 10:39
33F:→ strlen : 要捏造一个不存在的东西 这个人类更拿手 而且生活中 08/10 10:39
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:41:15
34F:→ IBIZA : 人类也会有类似的错觉, 例如曼德拉效应之类的 08/10 10:39
35F:嘘 Isopod : 设定的范围怎麽会是无限,就是喂给他的资料而已。虽 08/10 10:39
36F:→ Isopod : 然庞大但不是无限。 08/10 10:39
据我所知 ghatgpt并没有缩限 可以问他什麽问题 顶多犯法类型的东西 他会告诉你不能回答 而不是他不会回答
37F:→ strlen : 这种案例比你想像中的还要多 你用google搜也不一定 08/10 10:39
38F:→ strlen : 正确 一堆内容农场东拼西凑 wiki也是乱写一通 08/10 10:39
39F:推 yuzulee : 推文都满温和的耶... 08/10 10:39
40F:→ Isopod : 文章嘴文组,结果自己对於AI的理解也是幻想 08/10 10:39
41F:→ twistfist : 老师教授可以直接说这我也不确定,ai 会不懂装懂 08/10 10:40
42F:→ a12838910 : 超导呼... 08/10 10:40
43F:→ strlen : 正确性这种东西 人类自己都没办法保证了 还要求才刚 08/10 10:40
44F:→ strlen : 有点小发展的AI 08/10 10:40
45F:→ IBIZA : 幻觉跟正确性不完全是同一个议题 08/10 10:40
46F:→ Isopod : 那个str也在乱扯,就是知道瞎掰不对,所以才希望AI 08/10 10:40
47F:→ Isopod : 不要瞎掰。 08/10 10:41
48F:→ IBIZA : 政论节目的干话 大多数还是在有所本的基础上扭曲 08/10 10:41
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:42:05
49F:→ strlen : 问题在於 你怎麽定义瞎掰? 08/10 10:41
50F:→ IBIZA : 事实来的 AI的幻觉就不知道哪来的 08/10 10:41
51F:推 ab4daa : 无罪 08/10 10:41
52F:→ Isopod : 他可以根据资料库理解错误,这是可以修正的。但是瞎 08/10 10:41
53F:→ Isopod : 掰不存在於资料库的东西,这个就是现在的问题 08/10 10:41
54F:→ strlen : 你先定义瞎掰是什麽 我们再来谈瞎掰对不对嘛 合理阿 08/10 10:41
55F:→ strlen : 我就说即使你用google 上面一堆东西也都瞎掰 08/10 10:42
56F:→ IBIZA : 我想我前面已经对於AI幻觉有很清楚地描述 08/10 10:42
57F:推 stosto : Ai 大部分都是最佳近似解….到底要怎麽不讲干话 08/10 10:42
58F:→ strlen : 但google搜寻就没用了吗?你打开电视上面一堆假新闻 08/10 10:42
59F:→ IBIZA : 瞎掰的范畴很大 有所本跟无所本 是两回事 08/10 10:42
60F:→ IBIZA : 瞎掰的范畴很大 有所本跟无所本 是两回事 08/10 10:42
61F:→ strlen : 那新闻就通通可以关一关了是吗 08/10 10:42
62F:→ Isopod : 是呀 就是因为有不懂装懂的人自己胡扯呀 08/10 10:43
63F:→ stosto : 一堆干话连人类都讲不出来 08/10 10:43
64F:→ IBIZA : 假新闻也是 在有所本的新闻上乱写 跟 报导一则完全 08/10 10:43
65F:→ IBIZA : 虚构的新闻是两回事 08/10 10:43
这是哲学问题 因为你觉得他无所本 他认为他有所本 说到底 就是程式问题 一样是范围设定的问题 只要能限缩知识范围的框架 这个问题一定会减少很多 幻觉来自於 创造力 基本的程式都有一定的创造力 AI只是更人性化 让你觉得他有幻觉而已
66F:→ strlen : AI的瞎掰当然也是有所本啊 它的模式跟人一模一样 08/10 10:43
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:45:03
67F:→ IBIZA : 就跟你说 AI幻觉 是无所本 08/10 10:43
68F:嘘 aynmeow5566 : 问题是无中生有捏造资料 为了凑答案捏造论文出处 要 08/10 10:43
69F:→ aynmeow5566 : 他验算等号左边明显不等於右边还能说是相等的 快点 08/10 10:43
70F:→ aynmeow5566 : 解决啦 08/10 10:43
71F:→ strlen : 人要瞎掰 不就是东拼西凑 假新闻和政论名嘴也是 08/10 10:43
72F:→ SiFox : 瞎掰扯谎凭空幻觉,只要有0.001%的可能,AI就玩完 08/10 10:43
73F:→ IBIZA : 我前面举的例子你看了吗 08/10 10:43
74F:→ IBIZA : 我前面举的例子你看了吗 08/10 10:43
75F:→ strlen : 一本正经瞎掰 你去看看LBJ嘛 收视多好 资讯都正确吗 08/10 10:44
76F:→ stosto : Ai核心都是资料集小办法去生成一个f(x), 你就算带 08/10 10:44
77F:→ stosto : 入一个从未出现的x大部分也都可以得到一个y 08/10 10:44
78F:→ Isopod : 没有人说AI没有用,只是在讨论他瞎掰的问题有点严重 08/10 10:44
79F:→ Isopod : 。就像google出来的东西,很多也是垃圾,所以才要使 08/10 10:44
80F:→ Isopod : 用者才要自己找方法判读。但AI目前没有办法找方法判 08/10 10:44
81F:→ Isopod : 读自己输出的资料是不是瞎掰的。这样你懂吗 08/10 10:44
我一直都知道这个事情哦 所以我也只是说 这个问题不需要讨论 因为他本身就是必然的
82F:→ stosto : 这个y扯不扯是另外一回事,幻觉就是这个y 08/10 10:45
83F:→ SiFox : 政客扯谎带来多少美好崇景,谎言搓破带来多少痛苦 08/10 10:45
84F:推 ckp4131025 : AI会自创api很正常啊,因为人类也会 08/10 10:45
85F:→ ckp4131025 : 咁,这个api没有吗,我以为会有 08/10 10:45
86F:→ SiFox : 人类有政客就够了,不需要AI来自寻烦恼甚至带来毁灭 08/10 10:45
87F:→ stosto : 一堆人不懂演算法在那边扯幻觉 08/10 10:45
88F:→ IBIZA : 对 人类也会无中生有 但目前无法理解为什麽AI会 08/10 10:45
89F:→ IBIZA : 而且无法解决 所以只好缩限AI回答能力 08/10 10:46
90F:→ stosto : 就不是无中生有,而是带入一个x以他建造出来的模型 08/10 10:46
91F:→ stosto : 就是会丢出一个y给你 08/10 10:46
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:47:08
92F:推 deadair : 我问他变形记他跟我讲悲惨世界 整个不知道在干嘛XD 08/10 10:47
这个我觉得你有在扯 你应该是前後文没有定义清楚 他在回答你前面的东西吧
93F:→ IBIZA : 曼德拉效应我不知道大家知不知道 08/10 10:47
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:48:11
94F:推 Isopod : 不在资料集里的y就是我们在讨论的幻觉啦,自己说从 08/10 10:47
95F:→ Isopod : 资料集生成,啊生成资料集以外的结果怎麽说? 08/10 10:47
96F:→ stosto : 给你两组x,y 让你求一元一方程式,非资料集内的x带 08/10 10:48
97F:→ stosto : 入後就是会帮你算出y 08/10 10:48
98F:推 strlen : 反驳不了我就恼羞喔 XD 08/10 10:48
99F:→ strlen : 事实是 我们的现实本来就被巨大的假资讯包围 08/10 10:48
100F:→ stosto : 你会说这个y是幻觉? 08/10 10:48
101F:→ Isopod : 已经说了,他可以回答错误,这只是演算法不够强。但 08/10 10:49
102F:→ Isopod : 这跟产出不存在的资料是两回事 08/10 10:49
你可以看我第二次回文的内容
103F:→ strlen : 然後我们的认知不想承认这件事实 08/10 10:49
104F:→ IBIZA : deadair那个例子还不算 08/10 10:49
105F:→ strlen : 不然你看看对岸就知道 你看看他们的现实和你的一不 08/10 10:49
106F:→ strlen : 一样嘛 08/10 10:49
107F:→ strlen : 现实的假资讯跟AI给的一样 半真半假 你敢说你分得出 08/10 10:50
108F:→ IBIZA : 我不知道是你一直要讲现实要干嘛 有人说人不会无中 08/10 10:50
109F:→ IBIZA : 生有吗? 08/10 10:50
110F:→ IBIZA : 人当然是会 08/10 10:50
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:52:19
111F:→ Isopod : str真的来乱的,直接忽略就好 08/10 10:50
112F:→ stosto : Ai就只是个求函数的演算法、而目前很少演算法可以 08/10 10:50
113F:→ stosto : 求出现实环境的完美函数 08/10 10:50
114F:→ IBIZA : 你喂假资料给AI AI当然也是会吃了假资料回答你假 08/10 10:50
115F:→ IBIZA : 资料的内容 问题就不是假资料啊 08/10 10:51
116F:→ Isopod : stosto至少还是在讨论问题 08/10 10:51
117F:→ stosto : 所以求得的都是逼近函数 08/10 10:51
118F:→ strlen : 你根本反驳不了就说人家来乱喔?不然你解释一下怎麽 08/10 10:51
119F:推 SiFox : 假资讯让AI学习,AI再扯谎一下,是打算让世界多乱? 08/10 10:51
120F:→ strlen : 解决现实里的假资讯 08/10 10:51
121F:→ stosto : 而逼近函数就是以资料集去逼出来的 08/10 10:51
122F:→ IBIZA : @stosto 其实要说一切都是函数结果当然是可以 08/10 10:51
123F:→ SiFox : 更别说,不用假资讯的状况下AI就会扯谎了 08/10 10:51
124F:→ strlen : 然後你再来想想要怎麽解决AI给的假资讯 这才合理吧 08/10 10:52
125F:→ stosto : 你有假资料本来就会把一个不错的函数带偏 08/10 10:52
126F:→ Isopod : 现在是在讨论现实世界假资讯?你根本没弄懂命题就不 08/10 10:52
127F:→ Isopod : 要在那边吵。 08/10 10:52
128F:→ IBIZA : 问题就是现在连专家都不知道为什麽会这样 08/10 10:52
专家不可能不知道啦= =
129F:→ strlen : AI是现实的资料进去生成的对吧 那何以保证现实资料 08/10 10:52
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:52:53
130F:→ stosto : 但在处理大资料也会去过滤假资料 08/10 10:52
131F:→ strlen : 的的正确性 08/10 10:52
132F:→ IBIZA : @stosto 你讲的东西其实对於认识这件事情毫无帮助 08/10 10:52
133F:→ tony15899 : wiki之前有个自己编出一段古俄罗斯史的 很像这种 08/10 10:53
134F:→ IBIZA : 专家要是知道就不会有这篇新闻了 好吗 08/10 10:53
135F:→ SiFox : 对!最麻烦、最可怕的是"不知道为什麽" 08/10 10:53
我是不相信什麽不知道为什麽 根本一堆记者喜欢搞这种天网既似感 ※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:54:03
136F:→ Isopod : 如果把假资料给AI,他当然就以这个假资料产出结果, 08/10 10:53
137F:→ Isopod : 但是这还是「有所本」。目前的问题是,他所产出的资 08/10 10:53
138F:→ Isopod : 料,并不在喂给他的资料里 08/10 10:53
139F:→ SiFox : 光这点,AI基本无法发展 08/10 10:53
140F:→ IBIZA : 目前就是不知道为什麽会这样 所以只好缩限AI回答能 08/10 10:53
141F:→ IBIZA : 力 避免AI幻觉 08/10 10:53
142F:→ stosto : 原文是说无法解决而非不知道问题点 08/10 10:54
143F:→ strlen : 现实的假资讯不会影响到AI吗 你确定吗 08/10 10:54
144F:→ SiFox : 专家就是因为不知道,才仅能用"幻觉"来形容状况 08/10 10:54
145F:推 herculus6502: 光要分辨哪里有错就搞死你,自动产生程式根本科科 08/10 10:54
146F:→ Isopod : 所以现在讨论的不是,把假资料喂给AI产出的奇怪答案 08/10 10:54
147F:→ Isopod : 叫幻觉。而是不知道为什麽会产出根本不在资料集的东 08/10 10:54
148F:→ IBIZA : 你相信不相信都改不了现况 08/10 10:54
149F:→ Isopod : 西。 08/10 10:54
你神化了这个所谓不存在的资料 如果你把所有的幻觉结果拿出来看 对照背後的运行规则 一定可以找到解释 那不然啦 只有一个可能 就是运算复杂度达到某个层次的时候 这个世界法则会赋予这个客体「灵魂」 你他妈在跟我写小说484= =
150F:→ strlen : 命题没有问题啊 不然你确定喂给AI的东西100%正确吗 08/10 10:54
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:56:51
151F:→ stosto : 所有做ai 的如果不知道会有这种无中生有的问题可以 08/10 10:55
152F:→ SiFox : 不知道问题点,请问该怎麽解决? XD 08/10 10:55
153F:→ stosto : 回去重修了 08/10 10:55
154F:→ Isopod : 目前AI幻觉真的找不太到原因,AI演算法基本上是个黑 08/10 10:55
155F:→ Isopod : 盒子,中间运算过程很难追踪 08/10 10:55
156F:→ IBIZA : 这边讲得不知道 指的是不知道为什麽发生 而不是不 08/10 10:55
157F:→ a8521abcd : 那根本不是资料库问题,就是chatgpt 自己在瞎掰 08/10 10:55
158F:→ stosto : 幻觉这件事情就只是错误率而已 08/10 10:55
159F:→ IBIZA : 知道会发生这种情况 08/10 10:55
160F:→ IBIZA : 不是错误率而已 08/10 10:55
161F:→ Isopod : 我觉得sto讲的是错误答案,不是我们在讨论的幻觉 08/10 10:56
162F:→ stosto : 这东西就一定会发生 到底是多专家才觉得不会发生 08/10 10:56
163F:→ SiFox : 黑盒子形容的很贴切。这就是AI无法发展的原因 08/10 10:56
164F:→ strlen : 无中生有不就是人类思考的特性之一? 08/10 10:56
165F:→ IBIZA : 到底多专家 这一篇就是大学系主任? 08/10 10:56
166F:→ strlen : AI是不是就是以模仿人类为目标? 08/10 10:57
167F:→ IBIZA : ChatGPT的专家也说过类似的话 08/10 10:57
168F:推 max2604 : 我问他 08/10 10:57
169F:→ strlen : 那就这一点 AI还真的达到目标了勒 XD 08/10 10:57
170F:→ stosto : 在文字拓扑学里的网路大成这样,你函数在某一段错 08/10 10:57
171F:→ stosto : 误後面会偏离的很严重 08/10 10:57
172F:→ Isopod : @strlen 就算是资料有问题,那也是根据资料产生的回 08/10 10:57
173F:→ Isopod : 答,虽然答案是错误的,但是就过程而言是正确的,这 08/10 10:57
174F:→ Isopod : 是资料的问题。但现在的问题是他没有根据资料,自己 08/10 10:57
175F:→ Isopod : 创造了答案。这样你清楚问题了吗? 08/10 10:57
176F:→ max2604 : 桃乐比是谁,他给我回答其他东西XD 08/10 10:58
177F:→ stosto : 这明明大家都知道,现在扯不知道幻觉怎麽出现 08/10 10:58
178F:→ SiFox : 只要有黑盒子存在,机器人三法则必然无效。 08/10 10:58
179F:→ max2604 : 然後问他六位数加法他两次答案不一样 08/10 10:58
你这个太胡扯我真的不信 你贴个6位数加法 两次回答不一样来看看 ※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 10:59:16
180F:嘘 ji3g4zo6 : https://i.imgur.com/6C7jFzQ.jpg 这就是幻觉好吗 08/10 10:58
181F:→ ji3g4zo6 : 跟资料库有什麽关系? 08/10 10:58
从这个你可以看出预设 1.假定使用者资料为真 2.以这个假设从资料库寻找有可能的答案 不就如此而已吗 不然你去问open AI工程师 他是不是这样写的
182F:→ SiFox : 所以AI发展到尽头,仅会是假装有人性的一团混乱 08/10 10:59
※ 编辑: xa9277178 (220.136.194.220 台湾), 08/10/2023 11:00:45
183F:→ Isopod : 原子弹那个就是我们在讨论的幻觉。当然一定是演算法 08/10 10:59
184F:→ Isopod : 本身有问题,但就是不知道为什麽会有这样的问题 08/10 10:59
185F:→ IBIZA : 之前还有一个例子 08/10 11:00
186F:→ IBIZA : 有一个律师用ChatGPT产生出庭文件 08/10 11:00
187F:→ IBIZA : 律师看内容觉得没问题就提交出去 08/10 11:00
188F:→ IBIZA : 但文件里面用来论述主张的判例不存在 08/10 11:00
189F:→ IBIZA : ChatGPT幻想出了一个案件的详细情况 当作判例 08/10 11:01
190F:→ Isopod : 从资料库找可能答案,但没找到就应该产出没有。而不 08/10 11:01
191F:→ Isopod : 是自己编造一个回应。 08/10 11:01
192F:→ ji3g4zo6 : 不懂幻觉的人 建议去看一下李宏毅教授的课 08/10 11:01
193F:推 tony15899 : https://reurl.cc/zYnryy 这个 08/10 11:01
194F:推 ckp4131025 : 生成式AI并不是基於资料查询的AI, 所以不设限制的 08/10 11:02
195F:→ ckp4131025 : 话甚至连算数都不会 08/10 11:02
196F:推 kqalea : 抱歉~ Yann LeCun 早就讲过~只靠语言没法完全理解 08/10 11:02
197F:→ IBIZA : 我前面讲的那个套件的例子, 是有人要chatGPT用pytho 08/10 11:03
198F:→ IBIZA : n开发一个程式, chatGPT就给了他一个基於OOOO套件的 08/10 11:04
199F:→ IBIZA : 程式, 内容看起来都没问题, 但要去找oooo套件来安装 08/10 11:04
200F:→ IBIZA : 就不存在这个套件 08/10 11:04
201F:→ stkoso : 这个缺点大家都知道 但只要利大於弊就会有人用 08/10 11:05
202F:→ IBIZA : 如果你不太能理解这个问题, 这就好像你要chatGPT用 08/10 11:05
203F:→ stkoso : 从神经网路刚开始发展的时候就知道的事情 08/10 11:05
204F:→ IBIZA : 外语写一封信, 结果chatGPT告诉你它用阿里不达国语 08/10 11:06
205F:→ IBIZA : 写, 而且还真的写出来了 08/10 11:06
206F:→ IBIZA : 但不存在这国语言, 自然内容你也无从理解 08/10 11:07
207F:→ leo125160909: 公三小 08/10 11:07
208F:嘘 ji3g4zo6 : 阿假设资料为真 後面的答案不就是幻觉了 还是连历 08/10 11:07
209F:→ ji3g4zo6 : 史这种事情都可以发挥想像力来回答? 08/10 11:07
210F:→ IBIZA : 这个跟之前wiki上的假俄罗斯历史有点类似 08/10 11:07
211F:推 stosto : 你用两组资料求出y=ax+b 然後说不在这两组x就不能 08/10 11:08
212F:→ stosto : 求出y, 天才 08/10 11:08
213F:推 GAIKING : 这命题不就跟美国某个律师用ai抓判例,结果ai提供 08/10 11:09
214F:→ GAIKING : 的完全就是自己生成而不是真的有这个东西,然後律师 08/10 11:09
215F:→ GAIKING : 不知道还拿去用出大事 08/10 11:09
216F:推 Isopod : chatgpt就是不是算数学AI,他不是只是一个简单函式 08/10 11:10
217F:→ Isopod : 好吗 08/10 11:10
218F:推 stosto : 所有的ai都在求function….. 08/10 11:10
219F:→ stosto : 就说在求逼近函数 08/10 11:11
220F:→ stkoso : 当年爱迪生为了打击交流电整天喊会电死人 08/10 11:11
221F:→ stosto : 要求函数的话资料集一定有限 08/10 11:11
222F:→ stkoso : 直到今天都还有人会被电死 但是呢? 08/10 11:11
223F:→ stosto : 为的就是得到非资料集的答案 08/10 11:12
224F:→ stosto : 现在要限缩? 08/10 11:12
225F:→ stosto : 现在终於懂为什麽当初念书的时候一堆人np 问题的精 08/10 11:14
226F:→ stosto : 髓不会用 08/10 11:14
227F:推 Isopod : 哥 你该学新东西了 08/10 11:15
228F:→ Isopod : 基本上你讲的没错,但不是大家正在讨论的东西… 08/10 11:15
229F:推 SiFox : 不要看做人工智能AI,事实上就是资料汇整生成软体 08/10 11:16
230F:→ SiFox : 这个资料生成软体自由发挥的空间很高,甚至会幻想 08/10 11:16
231F:→ SiFox : 这样就够了~ 哈哈阿 08/10 11:16
232F:→ csqeszzz : 有个重点是,人一般会有自己可能说错的自觉,也有 08/10 11:19
233F:→ csqeszzz : 意识到对某事缺乏了解的能力,对此一般人会承认自 08/10 11:19
234F:→ csqeszzz : 己的错误或无知,与之对话者就更能够合作去寻求解 08/10 11:19
235F:→ csqeszzz : 答,但chatgpt缺乏这样的自觉与承认的能力,它只会 08/10 11:19
236F:→ csqeszzz : 一直唬烂下去。这不是单纯说错话而已。 08/10 11:19
237F:嘘 josephroyal : 半瓶水响叮当 08/10 11:20
238F:推 Jiming : 去修资工AI,会了解更多 08/10 11:20
239F:→ stkoso : 机率分布没有明显的峰值时就代表很有可能出错了 08/10 11:23
240F:→ stkoso : 人要做的是根据结果来调整阈值 08/10 11:24
241F:→ Mchord : 哪有什麽幻觉不能解决的,就没训练好而已 08/10 11:27
242F:推 stosto : 很难有完美的模型,所以一定会有他们所谓的幻觉 08/10 11:28
243F:→ laechan : https://youtube.com/watch?v=AKqLiLLl8fo#t=180s 08/10 11:29
244F:→ laechan : 就算是真正的人也会虎烂你,你又怎麽判断真伪呢? 08/10 11:29
245F:推 kanx : 也不是没训练好, 限制不能有幻觉, 就变成多元回归了 08/10 11:30
246F:推 ji3g4zo6 : stkoso说的是对的 不调整根本没办法避免幻觉 跟资 08/10 11:34
247F:→ ji3g4zo6 : 料库一点关系也没有 08/10 11:34
248F:→ afrazhao : 讲的超好,一堆人一直在吵有没有错误,但凭什麽你认 08/10 11:36
249F:→ afrazhao : 为的错误就是大家的错误?这个对错、完美是谁的标准 08/10 11:36
250F:→ afrazhao : 建立的,换了一个人来看是不是本来的正确跟完美又是 08/10 11:36
251F:→ afrazhao : 被充满瑕疵? 08/10 11:36
252F:推 Isopod : 看来楼上认为3颗原子弹是完美的答案呢 08/10 11:40
253F:推 afrazhao : 现在的幻觉是不是建立在AI变成一个讨好人格?? 不 08/10 11:41
254F:→ afrazhao : 急於事实提供建议.... 如果是的话这真的要认真去思 08/10 11:41
255F:→ afrazhao : 考有没有可以改善的方式 08/10 11:41
256F:→ GoalBased : 幻觉和回答错误是两回事,你说加法,数学问题,结果 08/10 11:41
257F:→ GoalBased : 不一样就错误,但幻觉不是这个意思 08/10 11:41
258F:→ IBIZA : 以数学举例的话 08/10 11:46
259F:→ IBIZA : 所谓的错误, 指的是四则运算的结果不对 08/10 11:46
260F:→ IBIZA : 幻觉的话是chatGPT告诉你有加减乘除以外的第五种 08/10 11:46
261F:→ IBIZA : 运算, 而且还用这种运算算出结果给你 08/10 11:47
262F:推 artning : AI的问题是表面效度太高了—即使他的答案根本就是瞎 08/10 11:51
263F:→ artning : 掰,仍然必须真的对这题本来就很了解的人才能辨识。 08/10 11:51
264F:推 SiFox : 自学习资料扩张生成软体,这是目前AI真面目 08/10 11:52
265F:→ GoalBased : 你可以说是演算法不够好或者资料来源不够乾净导致他 08/10 11:52
266F:→ GoalBased : 的回答”错误”,但这种错误对大部分的人来讲就叫做 08/10 11:52
267F:→ GoalBased : 幻觉 08/10 11:52
268F:→ SiFox : 帮助幻想瞎掰,或合成图像很好用 08/10 11:52
269F:→ SiFox : 帮忙去马赛克也很有效率 08/10 11:53
270F:推 SiFox : 应用到对的产业,也是不错啦 08/10 11:56
271F:嘘 la8day : 比较好的解决方式是:不知道就说不知道 08/10 11:58
272F:→ la8day : 但他现在就做不到 08/10 11:58
273F:→ SiFox : 问题就再,如果说"不知道"也是在迎合人类 (说谎 08/10 11:59
274F:→ SiFox : 黑盒子存在AI就不可能发展,但可以拿来应用别的领域 08/10 12:00
275F:推 ck8861103 : 三颗原子弹是因为你驳回他的回答啊 chatGPT不是wiki 08/10 12:01
276F:→ SiFox : 所以好玩就好,对AI别太认真 08/10 12:01
277F:→ ck8861103 : AI哪管这是不是历史事实 她只知道你不喜欢这答案 08/10 12:02
278F:推 Isopod : 用过chatgpt的会知道,一般情况下反驳他也没用吧。 08/10 12:02
279F:→ Isopod : 至少我的使用经验是这样啦 08/10 12:02
280F:推 a77520601 : 我也觉得你不太了解实际的状况,他都自信但但的捏造 08/10 12:03
281F:→ a77520601 : 出一些不存在的数据和细节、规则。很多的错误是有根 08/10 12:03
282F:→ a77520601 : 据的、有因果或是有人为判断的错误,可以检讨、修正 08/10 12:03
283F:→ a77520601 : 。毕竟人类短时间还是很难把判断交给AI,但如果今天 08/10 12:03
284F:→ a77520601 : 你询问GPT一些事情他会凭空的编造完全不存在的事并 08/10 12:03
285F:→ a77520601 : 且说的非常合理,包含研究机构、报导、统计通通凭空 08/10 12:03
286F:→ a77520601 : 编造,你得自己查证过一遍,任何使用GPT寻找根据的 08/10 12:03
287F:→ a77520601 : 作法都是不可靠的,但Bing目前用起来这个问题就很少 08/10 12:03
288F:→ strlen : 我讲完整一点 AI的问题其实要分成两个层面 一个是 08/10 12:04
289F:→ strlen : 假资讯 一个是无中生有 後者会影响到前者 但後者却 08/10 12:04
290F:→ strlen : 也同样是目前大型生成式语言模型所追求的 如要希望 08/10 12:04
291F:→ strlen : 够精准的资讯 就要降低无中生有的能力 但无中生有 08/10 12:04
292F:→ strlen : 却正好是本次突破性的特色 不然其实只是想要一个能 08/10 12:04
293F:→ strlen : 用自然语言提问的百科全书 那ChatGPT也不会爆红了 08/10 12:04
294F:→ strlen : 无中生有这个特点的确是两面刃 但光是这样 很多情 08/10 12:04
295F:→ strlen : 境下就已经非常好用了 新闻里提出的问题是精准度问 08/10 12:04
296F:→ strlen : 题 这个其实不难解 08/10 12:04
297F:→ potionx : https://youtu.be/SOAbgV07IH8?t=227 08/10 12:04
298F:嘘 CYL009 : 看到第二段开头就知道可以结束惹 你对AI 的认知还太 08/10 12:04
299F:→ CYL009 : 少 08/10 12:04
300F:→ potionx : https://youtu.be/ORHv8yKAV2Q?t=1202 08/10 12:04
301F:→ potionx : 可以稍微上课一下 看看台大怎麽教学的 08/10 12:05
302F:推 SiFox : 别太纠结,我已经找到最佳应用领域 去马赛克 08/10 12:06
303F:→ SiFox : 我可以接受去马赛克後,不够精准,但有像就够了 08/10 12:07
304F:→ SiFox : 我相信大家都可以接受,手指头稍微扭曲或变六只 08/10 12:10
305F:→ SiFox : OK的 08/10 12:11
306F:→ jasperhai : 结果看来文组理组都看不下去XD 08/10 12:13
307F:推 ptta : 你完全理解错误 08/10 12:14
308F:→ ptta : 不是训练资料的正确性的问题 08/10 12:15
309F:→ ku399999 : 我就问你什麽科系学什麽的 哪来一堆推论 08/10 12:15
310F:→ strlen : 最後还是看你的需求 如果你今天要的是 问AI他就得 08/10 12:21
311F:→ strlen : 回答一个可靠精准不唬烂的答案 那你要的就是百科全 08/10 12:21
312F:→ strlen : 书 那至少现在ChatGPT无法 因为唬烂在某些情境之下 08/10 12:21
313F:→ strlen : 是很有用的 它设计取向包山包海 无法兼顾 我认为最 08/10 12:21
314F:→ strlen : 後目标是像bing AI使用者自行选精准度高的AI 或是 08/10 12:21
315F:→ strlen : 无中生有超爱唬烂的AI吧 08/10 12:21
316F:推 a77520601 : 还有那个六位数加法会不一样是真的,不只6位数,举 08/10 12:24
317F:→ a77520601 : 凡任何数理逻辑规则的演算都会乱讲,1+1都会算错。 08/10 12:24
318F:→ a77520601 : 我曾试着训练AI做会计,到後面真的蒙了,全凭幻想 08/10 12:24
319F:→ strlen : 但讲是这样讲 现阶段当然是没做到很好 所有人都还 08/10 12:26
320F:→ strlen : 在赶工调整 确实达不到需求 当然这也是股价还有想 08/10 12:26
321F:→ strlen : 像空间的理由 要是都发展得差不多了就是糕点喇 08/10 12:26
322F:推 FCPEWN375 : 如何避免人类灭亡? AI:监禁人类 08/10 12:26
323F:→ strlen : ChatGPT中的幻想 是特色之一啊 特别是创意类文案 08/10 12:27
324F:→ strlen : 所以今天就变成 跟创意相关产业人士就觉得神赞 但 08/10 12:29
325F:→ strlen : 想要百科全书的人就该该叫 合理啦 08/10 12:29
326F:→ strlen : 光是adobe的那个AI修图补图 真的超神超好用 08/10 12:30
327F:推 Samurai : AI不会无中生有,但是会从资料库拼凑出不正确的资 08/10 12:30
328F:→ Samurai : 讯 08/10 12:30
329F:推 chigo520 : 事实上乱产资料不是人类最爱干的科科 应该反而要害 08/10 12:32
330F:→ chigo520 : 怕 ai越来越人性化了 08/10 12:32
331F:推 benjamin8312: AI 跟 公式推导本身就是不一样的东西,AIV出来的东 08/10 12:35
332F:→ benjamin8312: 西就不是100%一样,是一个信心度的问题,现在就是AI 08/10 12:35
333F:→ benjamin8312: 对原资料做了未知的剖析,根本不是参照资料有没有假 08/10 12:35
334F:→ benjamin8312: 的问题 08/10 12:35
335F:推 sharline1013: 我是拿我自己整好的资料请他减少冗句和分段,就会发 08/10 12:35
336F:→ sharline1013: 现他完全误解其中一段的主题然後乱凑,但别人乍看真 08/10 12:35
337F:→ sharline1013: 的看不出来 08/10 12:35
338F:嘘 manysheep : 大家也太温和 你根本整个搞不清状况 还扯到哲学 08/10 12:41
339F:→ niburger1001: gigo 08/10 12:43
340F:→ manysheep : 先搞懂甚麽是机器学习好吗 一直是说是给程式的问题 08/10 12:43
341F:→ manysheep : 跟资料库正确率无关 是机器学习後果就会产生的凭空 08/10 12:43
342F:→ manysheep : 虚造 跟人类会话唬烂一样 跟你这篇会不懂装懂硬扯一 08/10 12:44
343F:→ manysheep : 样 08/10 12:44
344F:→ strlen : https://www.youtube.com/watch?v=vFRnBPfYuls 08/10 12:47
345F:→ strlen : 唬烂为主场的应用情境 08/10 12:47
346F:→ philip81501 : 你商家数据资料 总要最新的为主吧 08/10 12:47
347F:→ strlen : 她回答不了 有差吗 大家就是要看AI pon 08/10 12:49
348F:推 mcroplet : AI只能是工具,不能是人性 08/10 12:50
349F:→ MinuteMan : 人家就只是个LLM一直要他变人 08/10 12:57
350F:推 a30332520 : 我问灌篮高手哪队是全国冠军 08/10 13:04
351F:→ a30332520 : 他回答灌篮高手主角是流川枫 08/10 13:04
352F:→ a30332520 : 湘北高中是全国冠军,大言不惭的唬烂… 08/10 13:04
353F:→ a30332520 : 然後我说湘北就打输爱和了哪有全国冠军,他又回答 08/10 13:07
354F:→ a30332520 : 山王才是全国冠军,这是不是幻觉 08/10 13:07
355F:嘘 adonisXD : 就是有人故意喂不存在的错误资料啊 08/10 13:08
356F:→ adonisXD : 谁跟你幻觉 08/10 13:08
357F:→ adonisXD : 不信你去喂韭菜DPP清廉勤政爱乡土 08/10 13:08
358F:→ adonisXD : 久了韭菜就回你DPP清廉勤政爱乡土 08/10 13:08
359F:→ a30332520 : 我又说山王在第二场就打输湘北了 08/10 13:08
360F:→ a30332520 : 他又回答全国冠军是翔阳… 08/10 13:08
361F:→ adonisXD : 一样道理啊 08/10 13:08
362F:→ strlen : https://i.imgur.com/6fa1FE8.png 你要是百科全书啊 08/10 13:08
363F:→ a30332520 : 楼上,请问我问的网路上没有一个资料显示过翔阳拿 08/10 13:09
364F:→ a30332520 : 过全国冠军喔,这资料哪来的? 08/10 13:09
365F:→ strlen : 只是要可用自然语言提问的百科全书 简单很多 08/10 13:09
366F:→ strlen : 就是全部去尻搜寻资料比对 最多出现的 基本就是答案 08/10 13:10
367F:→ a30332520 : 这就是所谓幻觉,如果再更深一点的问题,你甚至会 08/10 13:10
368F:→ a30332520 : 相信AI,会不会成为灾难就不知道了 08/10 13:10
369F:→ strlen : 但如果只是这样 今天chatGPT就很无聊 也不会爆红 08/10 13:10
370F:→ strlen : 对 是无中生有的幻想 但这就是他暴红的特点 08/10 13:11
371F:→ strlen : 你需要的是精准的AI百科全书 ChatGPT目前无法做到 08/10 13:12
372F:→ strlen : 但我认为这只是设计取向不同而已 不算什麽大问题 08/10 13:12
373F:→ strlen : ChatGPT大概也不是以百科全书为目标的 08/10 13:14
374F:推 swgun : 引出不存在的判决书内容或字号就是错的阿 怎麽取得 08/10 13:47
375F:→ swgun : 人类法官 08/10 13:47
376F:→ swgun : 取代 08/10 13:47
377F:推 imhanhan : 好几次误导gpt,他竟然就开始跟着附和我XDD 08/10 13:57
378F:推 SapiensChang: 能够辅助人类使用的ai大概需要客制化啦 08/10 14:30
379F:→ SapiensChang: 但必须要说 能够达到辅助人类使用 觉得很堪用到有庞 08/10 14:30
380F:→ SapiensChang: 大的商业价值 大概至少5年内不会发生 但我认为是10 08/10 14:30
381F:→ SapiensChang: 年内 再来觉得幻觉能够被解决这件事 就是外行人的幻 08/10 14:30
382F:→ SapiensChang: 想而已 08/10 14:30
383F:→ SapiensChang: 我发现很多ai迷信者都会在那坚信ai有天什麽事都会被 08/10 14:31
384F:→ SapiensChang: 解决 但说真的就跟外星人被发现一样现在就是莫名其 08/10 14:31
385F:→ SapiensChang: 妙的低能论调 08/10 14:31
386F:→ SapiensChang: 举例来说 ai现在都无法判读人类文字情绪了 连那麽基 08/10 14:33
387F:→ SapiensChang: 本的事 ai都做不到 是要怎麽克服後面根本稍微难 但 08/10 14:33
388F:→ SapiensChang: 对人类大概是呼吸等级的事 08/10 14:33
389F:→ nrxadsl : 没哦,他最基本的连续十个乱数作加总平均都会错哦, 08/10 14:58
390F:→ nrxadsl : 而且你还可以纠正他,拿错的纠正他还会谢谢你 08/10 14:58
391F:→ nrxadsl : 其实你还可以第二次第三次纠正他,他到最後会反覆给 08/10 14:59
392F:→ nrxadsl : 你一样的答案,直到最後他肯定的那个还是错的,我有 08/10 15:00
393F:→ nrxadsl : 截图下来 08/10 15:00
394F:推 jamesho8743 : 先定义什麽叫AI幻觉吧 AI的答案本来就依照模型选出 08/10 15:15
395F:→ jamesho8743 : 最高机率的回答的‘’近似‘’答案 本来就是在编造 08/10 15:15
396F:嘘 centaurjr : 你根本不懂新闻在讲啥吧,我今天问你床前明月光谁做 08/10 15:34
397F:→ centaurjr : 的,除了考试合理地回答应该是李白或是不知道选一个 08/10 15:35
398F:→ centaurjr : 你绝对不可能回答甚麽诸葛亮对吧...AI会 08/10 15:36
399F:→ centaurjr : 这就叫幻觉 懂? 资料库没有输入他自己联想的幻觉 08/10 15:36
400F:推 jamesho8743 : chatgpt 本来就是超高级的文字接龙 高级到有时你觉 08/10 15:42
401F:→ jamesho8743 : 得他有智慧 那是因为它是去近似训练它的人类文本 08/10 15:42
402F:→ jamesho8743 : 有时又觉得它在瞎扯 因为岳飞就是岳飞 少一个字都 08/10 15:42
403F:→ jamesho8743 : 不行 08/10 15:42
404F:推 kyo55966 : 我因为有在钓鱼,曾经问过一些气象纪录,比如某地 08/10 15:43
405F:→ kyo55966 : 历史最高温、日出时间、满潮时间,而这些理论上都 08/10 15:43
406F:→ kyo55966 : 能查到正确的纪录,潮汐懂规律也可以推算,可是gpt 08/10 15:43
407F:→ kyo55966 : 常常给我最新2023的数据,我问资料库不是只有到2021 08/10 15:43
408F:→ kyo55966 : ?他就回对不起,2023不是纪录不是推算,完全是瞎 08/10 15:43
409F:→ kyo55966 : 掰…那会不会过去某一年其实也是瞎掰?问纪录查不 08/10 15:43
410F:→ kyo55966 : 到不是留白而是欺骗,这不是政治立场或人也会说谎 08/10 15:43
411F:→ kyo55966 : 的问题,期待AI对这类基础的问题回答正确且诚实应 08/10 15:43
412F:→ kyo55966 : 该不算太高要求 08/10 15:43
413F:推 kilhi : AI幻觉是网军问题 看看民进党操作 08/10 16:10
414F:→ blackstyles : 随便问电影剧情就会产生幻觉了啦 笑死 有够难用 08/10 17:02
415F:嘘 blackstyles : 问A答B 根本创作文了 笑死 08/10 17:06
416F:→ blackstyles : https://i.imgur.com/x1p9uZ3.jpg 08/10 17:06
417F:嘘 k12151215 : 嗯 08/10 18:12
418F:推 jamesho8743 : 你才不懂AI是啥吧? AI哪来资料库? 笑死人先去搞懂A 08/10 21:18
419F:→ jamesho8743 : I是啥 你以为AI是靠资料库来回答问题的吗? 那资料库 08/10 21:18
420F:→ jamesho8743 : 要多大? AI只有训练库 训练出来的是一个复杂函式权 08/10 21:18
421F:→ jamesho8743 : 重 它是能回答任何问题的 亦即给定任何一输入 它都 08/10 21:18
422F:→ jamesho8743 : 会有输出 它的输出准确率本来就不是百分之百的 即 08/10 21:18
423F:→ jamesho8743 : 使AlphaGo ChatGPT 用非常大量且高品质的资料训练 08/10 21:18
424F:→ jamesho8743 : 相比於整个空间还是非常微小 你问它床前明月光 它 08/10 21:18
425F:→ jamesho8743 : 本来就可能会回答诸葛亮或任何人名 人类回答问题是 08/10 21:18
426F:→ jamesho8743 : 靠正确理解 AI回答是靠机率 靠贴近它所训练的资料 08/10 21:18
427F:→ jamesho8743 : 它只是依照你的上下文选出一连串最可能的一个一个 08/10 21:18
428F:→ jamesho8743 : 字 这本来就是瞎扯 本来就是幻觉 只是当大部分回答 08/10 21:19
429F:→ jamesho8743 : 看起来都很顺很合理时 你觉得没问题 但是不合理的 08/10 21:19
430F:→ jamesho8743 : 例子还是会很多 懂? 这时你就可以看出AI只是拼字 08/10 21:19
431F:→ jamesho8743 : 而不是"真正"理解 但它依然实用 为何?当你逼近百 08/10 21:19
432F:→ jamesho8743 : 分之九十九的九九时 不管它是不是真正理解 就行为 08/10 21:19
433F:→ jamesho8743 : 来说跟真正理解也差不多了 08/10 21:19
434F:推 jamesho8743 : 本文里已经不就说的很清楚了吗? 现在没有任何一种 08/10 21:40
435F:→ jamesho8743 : 模型能够完全避免产生幻觉 因为它们的设计初衷只是 08/10 21:40
436F:→ jamesho8743 : 用来预测下一个单词 其实根本就没有什麽"幻觉" 那是 08/10 21:40
437F:→ jamesho8743 : 对一般外行人的说法 也没有什麽编造答案 它本来就是 08/10 21:40
438F:→ jamesho8743 : 在编答案只是有时对有时错 08/10 21:40
439F:推 jamesho8743 : 前面有人讲的很对 所谓幻觉就只是错误率而已 幻觉这 08/10 21:54
440F:→ jamesho8743 : 个词是人类用法 这个错误率是不可避免的 一个是你训 08/10 21:54
441F:→ jamesho8743 : 练样本有限 第二个是目前的演算法跟模型正确率还不 08/10 21:54
442F:→ jamesho8743 : 够高 08/10 21:54
443F:推 jamesho8743 : 你问它原子弹丢几颗? 它回答可以是3颗 2颗 5颗或任 08/10 22:12
444F:→ jamesho8743 : 何常用的数字 这表明它就不是用什麽资料库来回答 08/10 22:12
445F:→ jamesho8743 : 而是每一次问它都可能会有些许不同 08/10 22:12
446F:嘘 bunjie : 等等 你该自己花心力练习基本功的程式课 自己不努 08/27 12:47
447F:→ bunjie : 力找chatGPT代劳 这样不太好吧 08/27 12:47
448F:→ bunjie : 另外重点在於不是所有东西都是chatGPT能胜任的 有 08/27 12:48
449F:→ bunjie : 的领域就是一定要百分百正确 才不会造成危险 所以A 08/27 12:48
450F:→ bunjie : I只是工具 chatGPT只是其中一种AI 08/27 12:48







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:Gossiping站内搜寻

TOP