作者reader (读者)
看板W-Philosophy
标题Re: [问题]有人对哲学、人工智慧、知觉心理学都有꼠…
时间Fri Jun 30 16:05:39 2006
※ 引述《popandy (pop)》之铭言:
: 由原文可知,Searle1没有说「不管电脑再怎麽复杂都不可能产生意义」
: 而是说,如果电脑只是按照中文输入以及操纵这些没有意义的符号的文法规则
: 给出相对应的输出,则不能说电脑懂得中文。
我所知道的中文房间论证并不是这样,或者说不只是这样。这反而是最为
糟糕的理解,由於中文房间论证没有被推翻,致使这样的理解,变成电脑
只能操作文法规则的错误认识持续至今。
更何况我记得都有人拿类神经网路跟他吵了,但他还是十分坚持立场。
: 而电脑能够利用学习程式,形成有所指涉的单字,
: 单词之间还会有脉络上的关连性,例如某几个单字的指涉常常出现在同一张图片
: ,或者同一个资料结构的片段中。
: 另外,目前已经有人在作自然语言的文法的学习程式,
: 如果再搭配上巧妙的语意模型,可以让电脑从有指涉的单字进一步学习
: 比较抽象的词。
: 另外,再加上兼具语意与语法两个层次的推论系统,例如模态的、归纳的、
: 几何的、……
: 到时候不是没有可能做出一台电脑,具有非常理性的、但是跟人比较起来
: 还是相当残缺的智能。这种电脑没有情绪,不会哭、不会笑。
人工智慧的发展,大致上可略为分连结论和计算论两派,计算论较为大众所
熟悉,但连结论占有电脑科学的主流地位已经超过二十年了,只是到了後期
因为人工智慧研究的污名化(和中文房间论证和日本第六代电脑计划的失败
有很大的关系),研究经费申请不到,多数以连结论为主的研究人员自称是
在做机器学习而不是人工智慧。
以连结论的做法,要让电脑有情绪表现是很容易的事情,特别是人类有喜好
情绪表现的倾向,因此没有实际应用目标的对话程式,往往会被训练成情绪
表现较明显的模样。这类型的系统,是会在互动中学习成长的,特别是现在
都会搭配大量的模式辨认 (pattern recognition) 技术,可以很快地学会
训练者的用语和惯性对话方式。
甚至以计算论模型为基础的自然语言,还会内建小女孩模式或是乡民模式,
记得好几届图林测试比赛冠军程式都是乡民程式,它会一直努力引导对话至
特定议题,然後自顾自地跟你大谈特谈,不让它谈还会跟你翻脸,就一整个
网路小白样子。
当然这些都不是严肃的研究或应用,但显然若哪一天会出现纯粹打发无聊的
商业性自然语言对话程式,那麽有着情绪表现、不很理性的,美少女外型的
任性装可爱还可能会脸红说喜欢你的对话系统,大概免不了成为首选。
high tech, high touch 是除了财大气粗的美国厂商之外,所有科技业者都
高度赞同的工业设计准则。实际上我就曾经考虑过用美少女养成形式的对话
系统,做为自己的网路系统计划的资料输入介面。
讲哲学是一回事,但讲现实的科技,成功的商业化产品必然会是经过实际的
研究测试,会让很大比例的消费者迷恋它的,人性是很容易欺骗的。
你所讲的这些东西,看起来都是早期的人工智慧研究者的想像,在十五年前
大家就已经不太这样谈了。如果是你老师教的,那没办法,台湾的资讯教育
就是落後这麽多年,但现在研究方向并不是这样,即使论文依然可以找地方
发表,却不是重点所在。
: 至於拥有这种智能,算不算拥有「人类的」心灵现象,则又是另外一回事。
: 可是我认为,如果一定要跟上人的程度,或表现方向,才能叫做拥有智能,
: 借用洪裕宏教授的话,这叫做认知科学上的人类「沙文主义」。
: (http://mli.ym.edu.tw/houng/ch/list04_science_199108.htm)
: 或许洪裕宏教授太过乐观,例如樱井正二郎有批评到,
: 他认为,「现在的人工智慧,老实不客气一句话,唬人的部分多於实在的部分
: 。……就如同明斯基(Marvin Minsky )在台演讲时所说一般,
: 对人愈容易的事,对机器愈难。……现在的人工智慧或机器人,
: 可以模拟一周岁小孩的认知能力及动作达百分之几?……
明斯基是连结论者的公敌,看起来地位很高,却早就没人真的重视他的话。
他刻意宣扬人工智慧的前景,强力推动符号处理的计算模型,打压连结论的
发展,让哲学界反扑、让日本花大钱搞第六代电脑、让连结论的先驱罗森布
拉特自杀。他根本就是主要的罪人,然後又装无辜地批评起人工智慧研究的
浮夸。
全世界最浮夸最爱搞媒体宣传的就是 MIT 的那几个实验室。不要说哲学界,
电脑界都想开骂了,还不就是他们徒子徒孙众多,辈份特高,没人想做那个
挂猫铃铛的老鼠。
谁需要去模拟一周岁小孩的认知能力了,或者说,电脑科学真的需要在没有
完善理论、一步步地实在发展之前就去模拟人类认知吗? 问题是在谁身上?
: 其实对人工智慧及机器人更困难的问题是,如何整合各种不同的认知功能,……
: 如果单纯将各功能累加,没多久就到达物理极限,但在人类会的功能愈多表现愈好,
: 显然不是单纯累加。……
哪来这样的物理极限了? 只有他那一派才会有这个问题吧?
: 最後提到「智慧」或「认知系统」的定义问题。……
: 至於蜜蜂,也有学者认为具有智慧,但也有学者不认为,因为蜜蜂的输入与输出间的距离
: 虽不为零,但对环境而言,牠的反应是唯一的,行为科学家只要适当控制环境,即可非常
: 正确地预测其行为。又如人类的反射行为,其输出入间距亦不为零,但对环境而言大部分
: 亦有固定的反应,所以一般也不认为具有智慧。
: ……
: 」
蜜蜂蚂蚁之类的行为研究,主要是用来做复杂系统或网路研究,算是一个流行
题目,特别是多重代理系统上,但没什麽人在谈智慧的问题,就算用到了智慧
字眼,也不是真的在讲什麽高等的智慧。
讲这个只怕是他又想要打压别人的研究了,应该是在指细胞自动机 (cellular
autometa), 是人工生命的早期研究,後引入演化概念,衍生为基因演算法,
是神经网路之外另一个连结论的研究主力。
人工蚂蚁现在已经是大学生作业等级的东西了,像是这样的:
http://0rz.net/ef1A5
: 但是,这篇批评的文章年代久远,是92年的,现在06年所呈现出来的
: 认知科学的研究结果,却远比当时进步,
: 也有越来越多电脑科学家在结构上向神经科学取经,
: 例如the BabyBot project:http://www.liralab.it/babybot/robot.htm
: Jeff Hawkins的 Hierarchical Temporal Memory,
: http://yukuan.blogspot.com/2006/06/on-intelligence.html
神经网路模型是出现超过六十年,比电脑正式发明还要早的研究领域。
最早的神经网路模型,即是由罗森布拉特 (Frank Rosenblatt) 所建立的
知觉器 (perceptron), 结果被明斯基打压,致使相关研究被压制十几年
之久,甚至在罗森布拉特自杀後引发寒蝉效应,相关的研究完全中止将近
十年,可说是电脑科学发展历史上最严重的学术打压事件。
到了 1982 年,霍普菲尔德 (John Hopfield) 提出了霍普菲尔德网路
(Hopfield network), 引发学界震憾,连结论跃居主流地位,明斯基的
符号运算典范在中文房间论证和霍普菲尔德网路的挑战下,全面溃败。
往後所有的网路模型,全都可视作霍普菲尔德网路的简化版和加速版,
其地位如同图林机一般,无限延伸的霍普菲尔德网路,如同无限维度的
物理空间,哪怕你认为人类智慧来自於四维以上的物理空间系统的粒子
行为也能有效模拟。
随即有人以兔子的嗅觉系统做研究,证实霍普菲尔德网路可以有较模拟
兔子的嗅觉形成。亦即代表了知觉系统可以由电脑模拟。
而这是将近二十五年前的东西,可不是什麽近几年来的发展。问题在於
神经网路模型所要耗费的运算力太大了,哪怕是拿 IBM 的超级电脑,
也只能模拟一万个神经元,一万个神经元能干什麽事?
所以才有各种新的理论出现,试图在实际的技术限制下更有效地发展,
若真的有无限计算力的图林机,我们就可以真的去实验一个足够强大的
神经网路能否有如同人类的智慧能力。
: 所以,未来电脑的认知功能能赶上人脑多少,还是个未知数。
: 我认为任何人都不应该轻易地说未来的前景很乐观或者悲观。
现在这边的问题是,哪怕电脑能比人类更聪明,也会表现情绪和感觉,
也会有哲学家根据中文房间论证,宣称这样的电脑没有心灵。这并不是
电脑的能力问题。
也就是说,哪怕电脑看起来如何聪明敏慧,再怎麽样地惹人怜爱,哪怕
它的美少女外型比你的初恋情人更美,会阅读文学和哲学作品,会提出
我是谁的问题,会泪眼汪汪地述说自己的寂寞痛苦和需要尊重,哲学家
仍然可以说它没有心灵,没有资格当成人来看待,任何人都可以把它们
当作物品来随意凌虐伤害摧毁。
然後哲学家们会说,以外在表现来判断是一种功能论的轻率立场。心灵
哲学是不会同意这种立场的。
这十年来,所有相关日系科幻作品,都是在对抗这种本质论和将机器人
视为奴隶的机器人三定律,我也一向都无法认同心灵本质与社会伦理的
结合立场。
: 另外,reader兄可能不甚了解机器人学的进展,所以不认为那是电脑科学家的重要任务
: ,但是,越来越多电脑科学家投入这个领域,试图要用机器人取代劳工或救灾人员,
: 并且某种程度上辅助其他需要更高理解能力的职业。
: 这些是为了让人不用再做太多危险,或不花脑力的事。
机器人学根本不是理论电脑科学,跟我们所要谈的事情可以说没有关系。
--
在忙,顶多只能一天回一篇,没办法再多了
似乎用一点点新名词,纯粹讲述电脑科学比较好写,不用在乎哪一个句子
又变成我做了什麽哲学主张。
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 61.222.173.29