作者realove (realove)
看板W-Philosophy
标题Re: [问题]有人对哲学、人工智慧、知觉心理学都有꼠…
时间Tue Jun 27 15:14:38 2006
※ 引述《reader (读者)》之铭言:
: : 我认为最能做的是为一个研究方向提供思辩性的理由,在足够的科学证据出现以前。
: : 例如,从内在论,到预设内在论的心理学,到以预设内在论的心理学为基础的机器人学
: : ,再到实作这种机器人学的制程技术,
: : 填满这道光谱,可能需要几十年,甚至几百年,
: : 其中不知有多少哲学家、科学家、工程师参与。
: 等等,为什麽会出现「机器人学」?
: 电脑界需要的只是复杂资讯处理系统,需要的是适切的理论和架构及足够的
: 运算能力,其他都是枝微末节。
: 想做人型机器人的,多半不是在做严肃的研究。想在网路系统、量子电脑、
: 生物电脑、微型机器等系统中实现复杂资讯处理的,远比搞一个人型机器人
: 来得多上许多。
: 电脑科学家大量参考生物结构,特别是人脑结构,是因为它可能最有参考的
: 意义,而不是大家真的都想搞一个有自我意识的机器人。
: 复杂资讯处理并不预设心灵、意识、感受等等东西的存在,那是属於「可能
: 出现的副作用」的「麻烦事情」。
: 如果电脑处理复杂资讯的能力对於人类有足够帮助,那样就够了。而若电脑
: 处理复杂资讯的能力约等於或大於人类,那麽,我们就该考虑其伦理问题,
: 未必非得有和人一样的意识和感受,才能算是人工智慧。
: 我觉得这恐怕是哲学家不容易参与相关研究的原因,哲学家关心的事情,和
: 科学家关心的事情,可以说完全不一样。
: 或许哲学家可以先考虑一下,具有和人类同等级的复杂资讯处理能力,代表
: 什麽样的意义,特别是在工作上就等於是有几近完全的替代性了... 到那时
: 像是寄生虫一样依赖电脑的人类,还能有如同今日的强烈自我意识吗? 作出
: 消灭人类才能更有效率工作的决策的电脑系统,又算不算有自我意识呢?
: 简单来说,复杂资讯处理能力才是实在的问题,心灵问题、意识问题则未必
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
: 有那麽重要的地位。
~~~~~~~~~~~~~~~~~~~~~
我不是很懂机器人学 也或许我没完全了解你说的
不过心灵问题 意识问题当然很重要 做资讯工程的人大概显少会去想到资讯发展
在心灵意识问题上会有的意涵 也很少想到心灵哲学在伦理学上的意涵
就你所说的复杂资讯处理能力而言 一个懂电脑懂程式的人 当然会比决大多数的哲学家
更知道要麽样让电脑执行速度变快 效率变高; 但哲学家从未宣称他们在这方面比电脑
专家 机器人学专家来得高竿, 哲学家处理的问题是: 当一个机器人资讯处理能力发
展到一定程度之後,它们是否可以说具有意识 甚至具有心灵,
如果可以的话 这会有很深刻的伦理学意涵,
首先: 如果我们认为机器人有理性 那麽照康德讲的
你或许就不该仅仅把它当做手段 而应该把它当做目的
我们创造了一个机器人之後 不能够因为它不能再工作了 你就把它当做废铁
送去资源回收场 而且 你大概还需要立法保护机器人的权利 例如雇主
有义务定期帮他做零件更新或保养的工夫等等
此外 如果机器人可以有感觉的话 那他的快乐痛苦感受 从效益主义的观点来看
也应该纳入道德考量 你不能在他运转不顺的时候 生气地踹他一脚 如果他极度讨厌
执行某些工作时 你或许就应该命令它执行那些工作 etc..
所以结论是 哲学家与资讯工程师要解决的是不同的问题
就如同没学过电脑的哲学家不能让电脑
跑得更快更有效率 没学过哲学的资讯工程师要解决机器人的心灵问题伦理问题时
大概也会束手无策
btw,对於内外在论争辩的重要性 我不是很了解 或许它对技术的研发而言不是有很大的
助益? 但或许哲学争辩的重点不在那里 或许对心哲比较熟的a板友可以补充吧 呵..
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 150.203.242.72
1F:→ realove:更正笔误: "不"应该命令机器人从事他厌恶的工作 06/27 15:16