Stock 板


LINE

问题是人类大脑难道就不是这样思考的吗? 大脑也是区分语言模组 负责特殊功能的区块受损 可能导致听得懂 说不出来 看到懂 却听不懂 听不懂也看不懂 但说的出来 也可能你思考的核心被酒精麻痹 但语言模组依旧活跃 酒後说一大堆没逻辑的话 最新研究也证明AI随着训练进行也会有这种趋势 ai会产生负责不同语言的专属神经元 但随着训练进行 会产生共用的语言神经元 最後共享神经元会跳脱既有的人类语言概念 负责承担抽象推理与概念理解功能 分别关闭功能可以看到特定语言失活 或是整个只关小小的共用区 0.5% 导致整个模型推理能力崩溃 不过像人类也不一定就正确 人类大脑也只是大自然随即产生的一种堪用的计算机而已 至於说ds不懂规则 怎麽不说是他跟人类一样思考所以才不可控? 他没有在一开始就违规乱下 表示他是知道规则的 只是最後上头了脑袋里只想赢 这种人我们生活中不是也一大堆? 目前看来 ai的缺陷越来越少 而且不少缺陷 我们人类也一样会出现 所以与其说ai不像人类 不如说他在模拟人类时 犯了人类也可能犯的错 股点:ai股无脑多 ※ 引述《midas82539 (喵)》之铭言: : 大语言模型(LLM)它的原始目的是要「模仿人类回答出人类看得懂的答案。」 : 但跟人类的语言不同,你我使用的与言语表达会是一系列的文字规则, : 例如「主词,动词,受词」的SVO结构。 : 但模型本身并不是这样学习的,它是把你看到的字,拆成词素(token) : 然後将这些词向量化,变成一系列数列: : king → [0.8, 0.1, 0.3, 0.7] : queen → [0.9, 0.1, 0.5, 0.9] : man → [0.9, 0.0, 0.3, 0.6] : woman → [0.8, 0.0, 0.5, 0.8] : 这个数列可以很长,例如有必要的话,可以到有300多个。然後模型可以找到特徵。 : 这个特徵用人类可以理解例子,就姑且浓缩成一个角度,便为说明就简化成: : king=右上 man=右上 : queen=左上 woman=左上 : 那麽就算是你,也可以找到king跟man都是右上,故似乎有关连性。 : 而king跟queen角度不同,所以这两个不是同样的东西。 : 再把朕、殿下、皇帝、国王,排在一起。 : 只要资讯够多,理论上是可以让模型自己圈出有向量角度相近的集合。 : 我们可以再增加这个字出现在字首、字尾、中间第几个字的频率作为变数。 : 那麽就可以算出这个字出现在哪里的特徵比较大。 : 这时我们回到刚刚的SVO结构,模型就可以在不懂中文,但凭统计出的特徵, : 可以拼凑出一个你可以看懂的中文回答。 : 然而这并不是人类的理解与语意判定,以及衍伸的推理。 : 所以它就会造就出「中文房间」的错觉,例如假设一个外国人被关在房间。 : 但他有一本教战手则,上面说明了那些字出现了,可以给出哪些答案。 : 那他就算不懂中文,在手册的指引上也可以回答定型文。 : 大语言模型也是同样的概念,它是基於大量的资料来找出「特徵」, : 而这些特徵的组合在在它的神经网络会给予特定的权重,最後形成类似"手册" : 的东西,然後依照手册找到近似值的解答,生成给你看。 : 但它不见得是理解回答是否有意义,所以才会出现错误。 : 比如说很常见的,现在threads被一堆诈骗仔用AI生成图片, : 例如啥我是护理师给我一个赞好吗?但里面的图片会出现一些错误, : 例如叙述自己是75年出生,但生成的身分证是57年出生。 : 或者有生成名字了,但它的字型大小很明显不一致。 : 然而对於模型来说,它不会知道"怎麽样才是对的格式",而它只是针对 : 中华民国身分证大概是长怎样,而随机生成一个结果。 : 故单纯直接产出,就免不了会有以上的问题。 : GPT4-O3它是说有多一个推理功能。然而它的底层还是大语言模型(LLM) : 加上它的数据处理是弄成很长串的多维资料,你人类也看不懂, : 所以你还是不会知道,它的推理过程,是不是也是模仿生成人类看得懂的逻辑。 : 但这个算法是否正确与必要,不见得正确。 : 这个问题在你处理只有你会面对的数学问题就有机会发生。 : 例如假设你要模型生成一个模型由0至指定最大值,与指定最小值机率递减, : 而机率递减的分配公式,正常我们人类就是设一个权重来分配。 : 但我问过O3它就很奇葩,它想用自然常数来分配,然後算式会出现错误。 : 其他你看过的就是GPT跟deepseek下西洋棋,结果deepseek凭空出现棋子, : 或者无视规则走奇怪的动作。这些都说明了语言模型并不是真的了解规则, : 而只是像两只猴子看人类下棋,而模仿人类玩西洋棋。 : 由於这不是你熟知的建立规则(base rule),所以在面对复杂的随机模拟。 : 它可能做出错误的资讯,而你没有发现错误的话,它就会继续引用上下文 : 而给出错误的结论,但你看起来觉得是对的。 : 比如说你不会选择权,但你想要模型直接生成一个卖方与调整策略。 : 而模型基於call有正的delta,而错误认为sell call也有正dela, : 那它就会继续基於错误资讯引用,而得出: : 当标的价格趋近於SC履约价,整体delta会变正而且增加,故需要买put调整的规则。 : 当然对我来说我可以看出哪里有问题,但对於没有理解的人来说, : 那他就不会发现这个推理与建立规则错误,就会导致利用而产生亏损。 : 而这我认为基於大语言模型的训练方式,本质上是无解。 : 你只能靠自己判断模型的回答是否逻辑正确。而不是期望模型像神灯精灵, : 你不用会你也可以产出一个东西跟专业的人竞争。 --



※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 42.74.168.171 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1750041623.A.154.html
1F:推 sdbb : 台肯 06/16 10:49







like.gif 您可能会有兴趣的文章
icon.png[问题/行为] 猫晚上进房间会不会有憋尿问题
icon.pngRe: [闲聊] 选了错误的女孩成为魔法少女 XDDDDDDDDDD
icon.png[正妹] 瑞典 一张
icon.png[心得] EMS高领长版毛衣.墨小楼MC1002
icon.png[分享] 丹龙隔热纸GE55+33+22
icon.png[问题] 清洗洗衣机
icon.png[寻物] 窗台下的空间
icon.png[闲聊] 双极の女神1 木魔爵
icon.png[售车] 新竹 1997 march 1297cc 白色 四门
icon.png[讨论] 能从照片感受到摄影者心情吗
icon.png[狂贺] 贺贺贺贺 贺!岛村卯月!总选举NO.1
icon.png[难过] 羡慕白皮肤的女生
icon.png阅读文章
icon.png[黑特]
icon.png[问题] SBK S1安装於安全帽位置
icon.png[分享] 旧woo100绝版开箱!!
icon.pngRe: [无言] 关於小包卫生纸
icon.png[开箱] E5-2683V3 RX480Strix 快睿C1 简单测试
icon.png[心得] 苍の海贼龙 地狱 执行者16PT
icon.png[售车] 1999年Virage iO 1.8EXi
icon.png[心得] 挑战33 LV10 狮子座pt solo
icon.png[闲聊] 手把手教你不被桶之新手主购教学
icon.png[分享] Civic Type R 量产版官方照无预警流出
icon.png[售车] Golf 4 2.0 银色 自排
icon.png[出售] Graco提篮汽座(有底座)2000元诚可议
icon.png[问题] 请问补牙材质掉了还能再补吗?(台中半年内
icon.png[问题] 44th 单曲 生写竟然都给重复的啊啊!
icon.png[心得] 华南红卡/icash 核卡
icon.png[问题] 拔牙矫正这样正常吗
icon.png[赠送] 老莫高业 初业 102年版
icon.png[情报] 三大行动支付 本季掀战火
icon.png[宝宝] 博客来Amos水蜡笔5/1特价五折
icon.pngRe: [心得] 新鲜人一些面试分享
icon.png[心得] 苍の海贼龙 地狱 麒麟25PT
icon.pngRe: [闲聊] (君の名は。雷慎入) 君名二创漫画翻译
icon.pngRe: [闲聊] OGN中场影片:失踪人口局 (英文字幕)
icon.png[问题] 台湾大哥大4G讯号差
icon.png[出售] [全国]全新千寻侘草LED灯, 水草

请输入看板名称,例如:Soft_Job站内搜寻

TOP