作者popandy (pop)
看板W-Philosophy
标题Re: [问题]有人对哲学、人工智慧、知觉心理学都有꼠…
时间Fri Jun 30 00:40:11 2006
※ 引述《realove (realove)》之铭言:
: ※ 引述《reader (读者)》之铭言:
: : 而多数经科学训练的人都不相信心物二元论,是一个不需要讨论的信念问题,
: : 我们可以试着去接受调和式的观点,但对於基於心物二元论的论述,就是直接
: : 鄙视的意识形态偏见立场。
: : 我觉得中文房间论证正是隐含心物二元论的立场,来攻击心物一元论的观点,
: : 但是一般的理解,却是中文房间论证指出了人工智慧研究的国王新衣,甚至是
: : 电脑永远也不能建立生命系统及其之上的复杂度,这样更是不能被接受的理解
: : 方式。
: 中文房间的目的似乎不是要说 电脑不可能比人脑更复杂 而是要说 不管电脑再怎麽
: 复杂都不可能产生意义 因此再怎麽复杂 也不可能就此说它具有心灵 而如果有任何
: 人(不管是电脑工程师 或是哲学家)认为心灵可以用复杂系统去解释 那就大错特错了
: 电脑之所以可以对英文input做出适当的中文output
: 不是因为它懂得英文与中文 那些符号对被关在中文房间的searle来讲 可以完全
: 是无意义的物理性质, 电脑只是针对输入的那些表达英文语句的物理资讯做出处理
: 找出与之相对应的中文语句的物理资讯输出
: 相对而言 一个人(如从事同步口译的人)
: 要对英文input做出适当的中文output 他必须要懂英文语句的意义
: 和中文语句的意义 这跟电脑所做的事是很不一样的; 要"懂得"语言的意义 就必须要有
: 心灵存在才行
: 简而言之 如果中文方间论证成立的话 可以有下列的结论
: : "心灵现象不能化约至像电脑一样的复杂系统去解释"
: 虽然这麽说 但这结论并未排除 心灵现象的存在必定是存在於复杂系统
: 换句话 一个人可以主张复杂系统是心灵现象的必要条件 而非充份条件
: 而这个主张应该还不算太离谱..毕竟 你大概不会说 细菌也有思考 情绪等心灵现象..
: 另外 从你之前的文章看来 你似乎是同意 电脑不可能像人脑一样产生心灵现象
: 就这点而言你跟许多哲学家的看法是一致的 你所质疑的是: 许多哲学家据此就否定了
: 人工智慧的可能性 而就你看来 这非常的离谱
: 但我认为 这要看你说的"人工智慧"指的到底是什麽. 如果人工智慧指的是电脑根据
: 资讯的输入 可以做出恰当的输出 那哲学家不会否定人工智慧的可能性 电脑工程师
: 当然有办法让一个机器人每当听见"我爱你"时 也做出适当的回应说"我也爱你" 或甚至
: 可以视不同的情境 做不同的适当回应 (例如 电脑工程师可以让机器人根据说话者的
: 声波分析 去做不同的回应)
: 但如果你说的人工智慧指的是一种心灵现象的话 那这就是中文房间论证所要反对的了
: 因为 你不能仅仅从电脑的适当输出回应 去推论出电脑具有心灵..就像你不能仅仅因
: 为房间里的searle做出恰当的中文翻译输出 就去推论说searle懂中文; 如果哲学家
: 反对有此意义下的人工智慧 我想还不至於太离谱 (除非你能够提出反驳的理由)
: anyway,看完a板友与r板友的讨论串 後的一点浅见...
Searle, John. R. (1980) Minds, brains, and programs:
...
Because the formal symbol manipulations by themselves don't have any
intentionality; they are quite meaningless; they aren't even symbol
manipulations, since the symbols don't symbolize anything. In the linguistic
jargon, they have only a syntax but no semantics. Such intentionality as
computers appear to have is solely in the minds of those who program them and
those who use them, those who send in the input and those who interpret the
output.
The aim of the Chinese room example was to try to show this by showing that
as soon as we put something into the system that really does have
intentionality (a man), and we program him with the formal program, you can
see that the formal program carries no additional intentionality. It adds
nothing, for example, to a man's ability to understand Chinese.
...
由原文可知,Searle1没有说「不管电脑再怎麽复杂都不可能产生意义」
而是说,如果电脑只是按照中文输入以及操纵这些没有意义的符号的文法规则
给出相对应的输出,则不能说电脑懂得中文。
更进一步,因为语言是智能的必要条件,而电脑不懂语言,
所以电脑没有智能。这里只反驳了Strong AI的立场,却没有反驳Weak AI
所以,没有说「不管电脑再怎麽复杂都不可能产生意义」。
的确,输入任何一个符号给目前市面上买的到的电脑,
都会被编码成相对应的二进制的表示法,存在电脑里,
但是这个符号却没有任何指涉或跟其他符号的关连性。
绝大多数的正常人,理解到这点,恐怕都不会认为电脑懂得语言。
但是,如果电脑的记忆体中,储存了数不清的来自感应器的讯号,
包含图片、声音、压力、远近、温度、声纳、……
而且是以一种非常精妙,无论是否近似於人的资料结构储存着。
而电脑能够利用学习程式,形成有所指涉的单字,
单词之间还会有脉络上的关连性,例如某几个单字的指涉常常出现在同一张图片
,或者同一个资料结构的片段中。
另外,目前已经有人在作自然语言的文法的学习程式,
如果再搭配上巧妙的语意模型,可以让电脑从有指涉的单字进一步学习
比较抽象的词。
另外,再加上兼具语意与语法两个层次的推论系统,例如模态的、归纳的、
几何的、……
到时候不是没有可能做出一台电脑,具有非常理性的、但是跟人比较起来
还是相当残缺的智能。这种电脑没有情绪,不会哭、不会笑。
至於拥有这种智能,算不算拥有「人类的」心灵现象,则又是另外一回事。
可是我认为,如果一定要跟上人的程度,或表现方向,才能叫做拥有智能,
借用洪裕宏教授的话,这叫做认知科学上的人类「沙文主义」。
(
http://mli.ym.edu.tw/houng/ch/list04_science_199108.htm)
或许洪裕宏教授太过乐观,例如樱井正二郎有批评到,
他认为,「现在的人工智慧,老实不客气一句话,唬人的部分多於实在的部分
。……就如同明斯基(Marvin Minsky )在台演讲时所说一般,
对人愈容易的事,对机器愈难。……现在的人工智慧或机器人,
可以模拟一周岁小孩的认知能力及动作达百分之几?……
其实对人工智慧及机器人更困难的问题是,如何整合各种不同的认知功能,……
如果单纯将各功能累加,没多久就到达物理极限,但在人类会的功能愈多表现愈好,显然
不是单纯累加。……
最後提到「智慧」或「认知系统」的定义问题。……
至於蜜蜂,也有学者认为具有智慧,但也有学者不认为,因为蜜蜂的输入与输出间的距离
虽不为零,但对环境而言,牠的反应是唯一的,行为科学家只要适当控制环境,即可非常
正确地预测其行为。又如人类的反射行为,其输出入间距亦不为零,但对环境而言大部分
亦有固定的反应,所以一般也不认为具有智慧。
……
」
但是,这篇批评的文章年代久远,是92年的,现在06年所呈现出来的
认知科学的研究结果,却远比当时进步,
也有越来越多电脑科学家在结构上向神经科学取经,
例如the BabyBot project:
http://www.liralab.it/babybot/robot.htm
Jeff Hawkins的 Hierarchical Temporal Memory,
http://yukuan.blogspot.com/2006/06/on-intelligence.html
所以,未来电脑的认知功能能赶上人脑多少,还是个未知数。
我认为任何人都不应该轻易地说未来的前景很乐观或者悲观。
另外,reader兄可能不甚了解机器人学的进展,所以不认为那是电脑科学家的重要任务
,但是,越来越多电脑科学家投入这个领域,试图要用机器人取代劳工或救灾人员,
并且某种程度上辅助其他需要更高理解能力的职业。
这些是为了让人不用再做太多危险,或不花脑力的事。
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 140.112.5.64
※ 编辑: popandy 来自: 140.112.5.64 (06/30 01:06)
※ 编辑: popandy 来自: 140.112.5.64 (06/30 01:13)
※ 编辑: popandy 来自: 140.112.5.64 (06/30 01:21)