作者popfish ( )
看板W-Philosophy
标题Re: [请益] 图林测试
时间Tue Jul 21 13:51:01 2009
※ 引述《popfish (四季下康舞曲)》之铭言:
: 好像有人几位都想讨论Searl的中文房
: 我就在这里回文好了
: 原来早期的Searle可看这篇
: John Searle(1980) , Mind, Brain and Machines ,
: http://www.bbsonline.org/Preprints/OldArchive/bbs.searle2.html
▌论 J. Searle 的中文室论证
▌Schweigen˙着
────────────────────────────────
当我第一次读到 Searle 的中文室论证时,我就觉得其中似乎有不
对劲的地方。後来,我再读到 Churchland 和 Searle 的论辩,我发
现我似乎找到了瑟尔论证的问题所在。
让我先简单地重叙中文室论证之要点:中文室显然是个类比论证,
瑟尔以中文室类比整部电脑,中文室里的美国人类比於中央处理器,
美国人操作所依据的规则类比於程式;然後问:美国人懂得中文吗?
可能每个人都会回答 No!
然而,我认为就是在类比上出了问题了。我们都知道电脑有硬体和
软体之分;在中文室里的美国人所扮演的角色显然是硬体──他必须
完全依照规则手册的程序来操作,因此他这个人(他自己、他的大脑)
在这种情况下,显然是不相干的,相干的只是他「依据规则来操作的
这个操作动作和过程」── 因此,问这个美国人懂不懂中文就好像问
中央处理器自己懂不懂中文一样,若回答「懂」当然显得很荒谬;但
电脑处理过程的核心在於软体、以及在於硬体依软体来 run 的那个 run
的动作和过程当儿。因此,在中文室论证中,我们应该问的是「美国
人依规则操作的操作程序、动作、或过程懂不懂中文」,而不是问美
国人自己懂不懂中文。
我们可以假想用一个机器人来代替美国人,机器人的动作所依据的
程式可并入原先美国人依据的操作规则手册中,美国人的功能可完全
由机器人代替,这样一来,问题仍然存在:问机器人懂不懂中文跟问
电脑懂不懂中文没两样──等於问题还是存在着,中文室论证反驳不
了「纯语法演算能够产生意义」这个论题。
我反驳瑟尔论证的要点在於:美国人在这儿的角色应被限定为纯粹
操作的「肉身机器」,把他这个人或大脑或心灵(随便你喜欢那一种
)带进来,乃是逾越了论证的权限。以下,我要反过来设计一个以电
脑来模拟瑟尔版的「美国人在中文室」的情况,可以反照瑟尔的提法
其实已先预设答案了,自然会得到瑟尔所愿望的结论。当然,没有这
个「模拟」,相信上述的论证也足以点出中文室论证的盲点了。
这个情况如下:即假想有一部只能输入机器语言才能运作的电脑A
(但能输出 Basic 语言), 它透过语言转译器(它的功能是把输入
的机器语言译成C语言传送到电脑B;再把电脑B传送回来的C语言
译成 Basic 语言而自电脑A输出)而和另一部只能输出入C语言才
能运作的电脑B连线;再假设所有发问回答的规则都只能由电脑B来
处理。现在,我们用机器语言来问电脑A问题,然後要它输出 Basic
语言的答案。那麽,在中文室论证的情况中问美国人懂不懂中文,以
否定的答案来否决通过图林测试的电脑能懂中文──就好像,要问电
脑A能不能「处理」Basic 语言时,先去问电脑B本身能不能「处理」
Basic 语言一样──答案已在事先设定的情况中被设定了,电脑B自
己当然「不能」处理 Basic 语言。但它能够透过语言转译器和问答
程式(规则)来「代」电脑A处理问题并予以回答,然而它却不能直
接读入机器语言──就处理机器语言的问题这方面来看,电脑B属电
脑A的一部分,它能够藉规则帮助电脑A回答问题;但问只能输出入
C语言的电脑B能不能「处理」Basic 语言根本不相干。这样电脑A
必须经由电脑B才能输出 Basic 语言,那它能不能「处理」Basic 语言?
我以为,这儿我们会产生如何界定「处理」这个概念的问题:是不
是要「输出入」都用同一种语言才算是「处理」?或者只要「输出入」
其中之一就可以了?又,或者要再进一步考察电脑内部运作的状况
──如各种语言互相转译的状况(语言转译器的翻译规则)?同理,
在以纯语法演算的电脑能不能「懂、理解」的问题中,我们势必也会
引起「懂、理解」这种概念或其意义应如何界定的问题、或说懂、理
解这种「活动」意指什麽的问题?我们势必要有一个公开、客观的界
定标准,否则问这个问题根本没意义。
我第一个论证只能指出瑟尔的中文室论证不能有效反驳「纯语法演
算能产生语意」的论题;第二个反模拟论证则进一步强化上述论点外,
还指出解决问题较好的方向──如果用「理解」来讨论语意时,最好
从「理解」的界定开始:当人们说他们「理解」时,有那些公共特徵
或条件?如果电脑能符合这些特徵或条件,我们还能说电脑永远不能
「懂」吗?
图林测试其实是一个很好的、公开的「理解」标准──既然,人们
的对谈中必包含了理解的现象,所以模拟人类的对谈,然後以测试人
以为他在和另一个人对谈为理解的门槛──乃是一个很好的公开判准。
但,有人不满图林测试背後的行为主义观点,坚持要考虑内在状态,
所以也才会有瑟尔的中文室论证。如果坚持电脑的0和1序列操作永
不符合理解时的内在状态,那好,平行模型总可以吧!在这里,我们
可能会有两条路线。
一是硬体的运作状态,可公开观察:当一个人理解时,他的大脑状
态呈现什麽模样?譬如,我们可以发明一种脑状态探测机,把测试许
多人,把他们的理解时的脑状态记录下来(譬如诸脑细胞的互动状况
等等),建立一个公共标准;如果,平行电脑的诸基本联结单元也能
有同样的互动状况,那我们可说这平行电脑能「理解」了。(但序列
电脑就永远不能「理解」了)。
另一个是软体的结构,也是可以公开的:软体只是纯粹语法的构造,
人类的「理解」结构能化约为纯粹语法吗?(对了,这里有一个问题:
相应於序列电脑的机器语言;平行电脑的「机器语言」应该是怎样?
是不是各个联结单元的权重值?在序列电脑里是由电流的通过或不通
过来代表;在平行电脑里是不是以电压、电流、电阻... 或其它电量
单位来代表?)这一关是最难通过的。我想,即使平行电脑产生和人
脑一样的互动状态,一定仍会有人反对:平行电脑的软体仍然没有语
意!(谁会相信各细胞的各不同权重值互相作用就会产生语意?)这
里有一个语意 emerge 的关卡,让人很难跨越。
语意的问题跟 self-conciousness 共生共存;因为人们相信在理
解时,我们同时也在自我意识──自我意识到自己正处在理解状态。
现在,我要从 self-consciousness 着手。一方面,我想讨论怎麽来
界定理解?自我意识这玩意儿又是什麽?另一方面,如果坚持自我意
识存在的话,那我想给予自我意识一个可公开衡量的判准──似乎很
天方夜谭,但如果坚持自我意识永远不能公开化、客观化,像种魔术
、神秘的过程,那什麽也毋须再谈了。
首先,第一个问题是:我们怎麽说一个人理解了?是不是他说他自
己理解就算了?我举一个很普通的情况:家教。老师为学生讲解了,
老师如何判定学生理解了?用考试、测试 ──它的 implication 是
「应用」,即学生能把规则应用到同类的情况,表示他理解了;我们
可能也会认为学生根本不理解,他只是照本宣科而已。如此,表示「
同类的情况」也需要界定,有可能仍用相同的公式(规则)但稍加变
化,学生就犯错了──这可能是资质问题──这种情况我们多半会说
「学生仍不理解」。因此,除非学生能妥善地答对稍加变化的问题,
他才是真正理解了。但,问题是「同类的情况」在单纯的问题或知识
中,可能为数不多(如F=ma中,同类的情况可能只有要求求取F
或m或a的值而已,就是三种);若复杂的问题或情况(如大学的「
动力学」里的公式和题目),其同类情况就相当相当多,如果考零分
当然不能说他理解,但考 20 分却不见得不理解;(既然,主要谈理
解语言的问题,我们也可设定这个家教是在教英文,同样可推想)所
以,我认为从这儿可推出一个结论是:我们不可能为「理解」划出一
条截然分明的界限来。而且,我们一般所谓的理解,其实已包含在图
林测试中了。
当然,很多人不愿承认理解只是如此:他们坚持理解有一种自我意
识、豁然贯通的感觉,我们还能自我理解。可是,在家教的情况中,
学生坚持他已理解了,他「自我意识」到他理解了,老师能完全信赖
他的话吗?仍要测试。反而,即使学生都考一百分,老师仍会怀疑他
是否真正理解他的解释?譬如,老师可能认为理解是能「联想」到某
个观念上、或者能用「自己的话」来重新解释等等──可是这些都太
模糊了,根本不能做为一个严格的判准;如果有个疑心病重的人,他
有可能宣称所有的人「不理解」他说的东西。如此,测试应用能力乃
是界定「理解」最有可能的公开判准,至於要测试到什麽程度、或以
什麽方式测试,相信也可以形成一个共识。换句话说,「自我意识」
在公开判准的要求下,根本没有位置和公信力可言。
可能,有人会说:「自我意识不能建立公开判准,则同样理解也不
能──理解不单单只是测试应用能力,人类的理解还有一种特徵:就
是 "默会(tacit)" ; 既然默会就不可言传,自然也不是测试应用
能力所能达到的。」我们姑且同意这种宣称。但我主张:默会仍然可
以测试。我们只要稍稍修改图林测试的过程和目标,让测试者直接面
对电脑,测试他和电脑交谈能否达到默会状态?如果测试者能产生这
种默会感,那谁还能坚持电脑不能理解?
我以为,默会可以包含自我意识的概念──不仅自我意识自己的理
解,而且也意识到他人的理解,两人共同处在理解状态中──所以,
自我意识可以在默会做为一个测试目标下而予以公共化。
或许,有人仍认为上述都是理解的「外在特徵」;我们应该挖掘理
解的「内在条件」──亦即,理解是依据什麽样的规则、条件、模式
来运作的,即前述的语意突现 (emergence)问题──我以为像这种问
题似乎要从学习理论着手,我想这是下一个需要解决的问题,但我们
不能以为平行电脑有学习能力(不用平行电脑,现在就有很多学习程
式了)就能解决这个问题,在我看来,必须建构一个「能自我发生的
学习模型」才足以回答。这大概是当前认知科学的大热门吧!
後记: 现在我的观点可能又有一些改变。我现在觉得第一人称的判
准也是很重要的。
※本文原载於 5/13/96 台湾文化资讯站台湾哲学的地平线板
并刊载於 5/15/96 破周报 37 期资讯铁板烧版
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 140.119.62.50