作者hamasakiayu (ayumi)
看板Teacher
标题Re: [请益] chatgpt会淘汰老师吗
时间Fri Jan 9 10:00:39 2026
※ 引述《juice3028 (jucie)》之铭言:
: 今年AI做题能力进步神速
: 指考能拿快满分水准
: 会不会以後学生每人发台平板自学
: 不懂的自己问gpt
: 而且现在很多老师段考也用gpt出题
: -----
我就不讲那些虚的,甚麽人格养成道德培养
单就回应问题这点上跟你分享一下我的AI使用心得
未来怎麽样我不知道
毕竟科技日新月异
但就目前来看
AI成为老师最大的障碍来自於
AI的回应品质,目前被限制於学生的提问品质
譬如你今天懂得AI的提问技巧
帮AI先设定身分,然後设定问题的背景与前置条件
清楚问题的核心症结,并以此对AI进行提问
那你会得到一个相对高品质的答案
但如果你不懂得AI的提问技巧
只会提出问题
那根据目前AI的设计逻辑
会是先判读问题的回应路径
然後不断进行排除与可信度审查
最後在被训练得用户回馈与高权威的网站资料之中
"预测"答案"可能"是甚麽
但凡一个环节跑偏了
就可能会产出偏差的结论
这也就是AI幻觉的生成原因之一
AI会自信满满的一本正经的在讲干话
答案内容可能充满着看起来很专业的术语与权威人士的引用
然後学生就信了
老师在目前AI时代的价值是
多提供一个使用者的大脑
让问题可以变得更精确
譬如
学生其实不知道自己的问题出在甚麽地方
AI是没有办法帮助学生找出问题在哪里
老师就可以协助学生逐一排除错误路径
最後缩小答案池
让AI的预测精确度大幅提升
讲人话就是
我是学生我自己都不懂自己不懂在哪里
AI当然也不会懂
绕了半天,回了几千字,AI还是不懂问题症结
但一个老师过来看,也许一眼就能看出,阿这个学生连四则运算都不会
AI跟他讲三角函数解题
在本事件中的AI回应,再正确都没有用处
因为问题其实出现在学生的提问之外
而学生没有用提问好好引导,AI永远猜不出问题出在哪里
然後这个难点
目前研究的方向上来看
没有甚麽太好的解决方案
也许可以设定一套逻辑
要求AI面对学生不懂时
先检查以下内容
去测试问题可能出在哪里
但这种测试永远是正面表列
覆盖面有可能缺失
其次,这种正面表列,也需要高度专业的现场教师
经过数年校正後提出
然而
老师不懂LLM语言架构
工程师不懂教育现场
交集就是空集合
其次
即便有这样的良好架构先做初步筛检了
依旧必须要靠学生对AI反问的问题理解程度
以及回应水准
来决定AI是否能够把该路径给排除
讲人话就是
还是要看学生提问的水准决定AI回应的品质
如果用比喻的话
AI目前就好像是一个超强图书馆馆员
你跟他说你想看经典武侠小说
他会推荐:金庸古龙温瑞安
但你如果只跟他说你想看小说
他会想反问你,哪个类型的小说是你喜欢的?
如果哪个类型你都讲不出来,他回应的答案就可能天差地别
他也许以最多人喜爱的排行榜来回你
也有可能以文学批评理论地位来回你
每次的回应答案都不一样
如何让学生稳定的学习知识?
工程师有句老话:garbage in garbage out
那你要学生怎麽不输入低品质问题?
要有人教
那在你的假设中,老师被AI取代了
所以就变成无限回圈
所以就我的看法
老师这个职业大概率很难被AI淘汰掉
即便纯以学习知识这个点上讨论
就好像是,以知识内容与深度来说
专业书籍可能是某个领域专家花费数十年的心血成果
理论上可能超过绝大多数的老师的知识范围
但有书,学生就会了?
那老师这个职业一开始就不会存在
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.34.122.134 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Teacher/M.1767924041.A.263.html
1F:推 harry801030 : 认真回应网军给推 01/09 10:17
2F:推 petercyf : 其实光托(巨)婴这块,老师就不可能被AI取代了, 01/09 10:23
3F:→ petercyf : 更遑论很多需要现场实作的如:体育、美术之类的课程 01/09 10:23
4F:→ chrisxmen : 这样子学生学不好恐龙如何怪罪是老师没教好??? 01/09 11:07
5F:→ chrisxmen : 去教育局申诉AI好像也不能得到成就感 01/09 11:08
6F:推 chatbra : 就是回归师徒制度,让知识的传递交给AI 01/09 12:12
7F:→ chatbra : 教师的职责是让知识与经验的品质更好,目前许多需要 01/09 12:13
8F:→ chatbra : 透过实作的内容,短期内AI是很难取代老师的 01/09 12:13
9F:推 kingkinggod : 小孩程度差家长是要怪微软还是要怪估狗? 01/09 12:15
10F:→ Rizzi : 请不要回覆任何专发废文的网军 01/09 19:59
11F:推 iamccat : 我也觉得不用回覆网军 他们根本不会看啊 01/09 20:38
12F:推 ganlinnya : 推 01/09 21:39
13F:推 zamp : 同意这篇的看法。但AI终究能发展出由各种条件或主 01/09 22:39
14F:→ zamp : 动式问句来迅速判读学生知识背景的能力;长期陪伴 01/09 22:39
15F:→ zamp : 的AI更能从先前的对话资讯了解服务对象的能力与状态 01/09 22:39
16F:→ zamp : ,所以就学习指导的部分,取代老师指日可待。不过就 01/09 22:39
17F:→ zamp : 把屎把尿,安亲加上情绪陪伴,以及训练孩子正确表达 01/09 22:39
18F:→ zamp : 讲人话的部分,AI结合机器人的部分应该还要很久。 01/09 22:39
19F:→ m13211 : 其实是AI不能安亲管小孩 看看疫情远距教学就知道 01/10 07:32
20F:→ m13211 : 难的是托育 不是教学内容 01/10 07:32
21F:推 pttnowash : 这我很早就讲了 AI时代 要担心的不是国中小老师 01/10 08:15
22F:→ pttnowash : AI十年内都无法取代国中小教师 因为要当保母跟被告 01/10 08:16
23F:→ pttnowash : AI则是现在就已经可取代高中跟大学教室 01/10 08:16
24F:→ pttnowash : AI专业比他们强100倍m且更帅美更耐心口条更好更便宜 01/10 08:17
25F:推 pttnowash : 目前大学也只有名校学历"暂时"还很吸引人 01/10 08:19
26F:→ pttnowash : 实际上大家要的也只是那张带来的社会认可 01/10 08:20
27F:→ pttnowash : 而不是要那些教授的知识,现在不值啥钱且口条表演差 01/10 08:20
28F:→ pttnowash : 长得又(不好看?) 就像你也没懒得上哈佛MIT的免费课 01/10 08:21
29F:推 kingkinggod : 笑死,讲得好像高中不用当保母一样 01/10 13:47
30F:→ pttnowash : 还真ㄉ不用 只是被逼要上学 现在高中就可赚钱啊 01/10 14:47
31F:→ pttnowash : 要打架比力气有几个高中老师比得过高中生? 01/10 14:48
32F:→ pttnowash : 把老师打成残障都不用判多久了 01/10 14:49
33F:→ pttnowash : 上网当youtuber赚钱都可比高中老师赚更多 01/10 14:49
34F:→ pttnowash : 家里有点钱~在家自修就可以 高中老师那鸟知识 01/10 14:50
35F:→ m13211 : 高中要去学校交朋友啊 呵呵 01/10 15:07
36F:推 Frobel : 高中要看哪种型态,技职大概没办法,其实共识就是 01/10 16:17
37F:→ Frobel : 白领比蓝领更容易被AI取代,现行台湾国中小跟中後 01/10 16:17
38F:→ Frobel : 段高中都是属於体力活和低成本工作、讲难听就是AI 01/10 16:17
39F:→ Frobel : 成本比你贵,不如继续请老师,一个机械手臂不如直 01/10 16:17
40F:→ Frobel : 接请作业员的概念 01/10 16:17
41F:→ Frobel : 更直白一点的说法:老师会的会被取代不是老师有多 01/10 16:19
42F:→ Frobel : 厉害,而是学生有多懒惰,每个学生都精通听说读写 01/10 16:19
43F:→ Frobel : 基本语文能力又会主动学习,那不必AI,光平板配线 01/10 16:19
44F:→ Frobel : 上课程早就淘汰老师了 01/10 16:19
45F:推 kingkinggod : 笑死,所以高中都不会被家长投诉就是了,脑子真棒 01/10 17:32
46F:→ kingkinggod : 连第八节不上家长都会暴走了,还在那边不用托婴 01/10 17:33
47F:推 caramelputin: 不同的AI工具有不同的使用情境,想知道你用了什麽来 01/12 12:32
48F:→ caramelputin: 当基准? 01/12 12:32
主流那几个基本都有用
还包含了中国的千问、文心等
与其说不同的使用情境
不如更精确地说,是不同的底层逻辑
以及不同的产品定位
譬如以有些产品就比较容易去帮使用者补完立场跟前提
但补完的,不见得是真实状态或者是使用者需求的
讲个我最常见的状态
我需要AI提供给我中立公正的评价我做为参考
但我可能只是这样一提,AI就以为我对他之前的回馈不是很满意
反而跳反到另外一个极端去吹毛求疵或者是高度迎合
或者是采取合并的方式
这边用一点那边也用一点
但不见得是最佳解,只是为了迎合"公正立场"这个要求而已
因为目前LLM的设计方向比较靠近(生成答案的模式)
因此我不是以谁当作基准
是在讨论在目前这种生成模式下
好的输出结果对於问题的输入要求水准比较高
※ 编辑: hamasakiayu (114.34.122.134 台湾), 01/12/2026 13:45:36