作者realove (realove)
看板W-Philosophy
標題Re: [問題]有人對哲學、人工智慧、知覺心理學都有꼠…
時間Tue Jun 27 15:14:38 2006
※ 引述《reader (讀者)》之銘言:
: : 我認為最能做的是為一個研究方向提供思辯性的理由,在足夠的科學證據出現以前。
: : 例如,從內在論,到預設內在論的心理學,到以預設內在論的心理學為基礎的機器人學
: : ,再到實作這種機器人學的製程技術,
: : 填滿這道光譜,可能需要幾十年,甚至幾百年,
: : 其中不知有多少哲學家、科學家、工程師參與。
: 等等,為什麼會出現「機器人學」?
: 電腦界需要的只是複雜資訊處理系統,需要的是適切的理論和架構及足夠的
: 運算能力,其他都是枝微末節。
: 想做人型機器人的,多半不是在做嚴肅的研究。想在網路系統、量子電腦、
: 生物電腦、微型機器等系統中實現複雜資訊處理的,遠比搞一個人型機器人
: 來得多上許多。
: 電腦科學家大量參考生物結構,特別是人腦結構,是因為它可能最有參考的
: 意義,而不是大家真的都想搞一個有自我意識的機器人。
: 複雜資訊處理並不預設心靈、意識、感受等等東西的存在,那是屬於「可能
: 出現的副作用」的「麻煩事情」。
: 如果電腦處理複雜資訊的能力對於人類有足夠幫助,那樣就夠了。而若電腦
: 處理複雜資訊的能力約等於或大於人類,那麼,我們就該考慮其倫理問題,
: 未必非得有和人一樣的意識和感受,才能算是人工智慧。
: 我覺得這恐怕是哲學家不容易參與相關研究的原因,哲學家關心的事情,和
: 科學家關心的事情,可以說完全不一樣。
: 或許哲學家可以先考慮一下,具有和人類同等級的複雜資訊處理能力,代表
: 什麼樣的意義,特別是在工作上就等於是有幾近完全的替代性了... 到那時
: 像是寄生蟲一樣依賴電腦的人類,還能有如同今日的強烈自我意識嗎? 作出
: 消滅人類才能更有效率工作的決策的電腦系統,又算不算有自我意識呢?
: 簡單來說,複雜資訊處理能力才是實在的問題,心靈問題、意識問題則未必
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
: 有那麼重要的地位。
~~~~~~~~~~~~~~~~~~~~~
我不是很懂機器人學 也或許我沒完全瞭解你說的
不過心靈問題 意識問題當然很重要 做資訊工程的人大概顯少會去想到資訊發展
在心靈意識問題上會有的意涵 也很少想到心靈哲學在倫理學上的意涵
就你所說的複雜資訊處理能力而言 一個懂電腦懂程式的人 當然會比決大多數的哲學家
更知道要麼樣讓電腦執行速度變快 效率變高; 但哲學家從未宣稱他們在這方面比電腦
專家 機器人學專家來得高竿, 哲學家處理的問題是: 當一個機器人資訊處理能力發
展到一定程度之後,它們是否可以說具有意識 甚至具有心靈,
如果可以的話 這會有很深刻的倫理學意涵,
首先: 如果我們認為機器人有理性 那麼照康德講的
你或許就不該僅僅把它當做手段 而應該把它當做目的
我們創造了一個機器人之後 不能夠因為它不能再工作了 你就把它當做廢鐵
送去資源回收場 而且 你大概還需要立法保護機器人的權利 例如雇主
有義務定期幫他做零件更新或保養的工夫等等
此外 如果機器人可以有感覺的話 那他的快樂痛苦感受 從效益主義的觀點來看
也應該納入道德考量 你不能在他運轉不順的時候 生氣地踹他一腳 如果他極度討厭
執行某些工作時 你或許就應該命令它執行那些工作 etc..
所以結論是 哲學家與資訊工程師要解決的是不同的問題
就如同沒學過電腦的哲學家不能讓電腦
跑得更快更有效率 沒學過哲學的資訊工程師要解決機器人的心靈問題倫理問題時
大概也會束手無策
btw,對於內外在論爭辯的重要性 我不是很瞭解 或許它對技術的研發而言不是有很大的
助益? 但或許哲學爭辯的重點不在那裡 或許對心哲比較熟的a板友可以補充吧 呵..
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 150.203.242.72
1F:→ realove:更正筆誤: "不"應該命令機器人從事他厭惡的工作 06/27 15:16