作者mulkcs (mulkcs)
看板Cognitive
標題Re: [討論] 好書推薦_創智慧(on intelligence)
時間Mon Mar 29 11:58:26 2010
※ 引述《itrs821 (酗咖啡)》之銘言:
: 光看封面會以為這是一本講述人工智慧(以下簡稱AI)的書,
: 不過閱讀之後才發現非但不是如此,而且還大力抨擊所謂的AI,
: 不過這沒有抹滅我的興致,而且還被帶進一個更為入勝的世界之中...
: 根據作者的說法,現在的AI理論是條死胡同,不管架構再怎麼精緻也很難與人類匹敵,
: 因為不管在速度或是容量上,現今的電腦比起人腦都不惶多讓,
: 但是在功能上卻還是遠遠落後
這段看了讓我有一些感想,不過卻有可能有些離題。XD。
我一直覺得AI領域有很大部份人在做"知識表徵",在認知層面也好在神經層面也好,
都面臨到底一對多,或是多對一的問題。例如神經層面有grand mother cell vs
cell assembly,認知層面有hierarchical model vs PDP model。
但一對多或多對一是否真的互相對立?
舉個人類的例子,一個人有著許多能力,但一個人可以完成的事情有限,有些事情需要
很多人一起合作才能完成。例如,我可以演奏很多樂器,但卻無法獨自演奏一場交響樂
。可是我在不同的表演也許可以表演不同的樂器。我在團體A可以扮演的角色和團體B扮
演的角色可以有很大的不同,但都是我這個人,並且通過與其他人的合作來完成一個交
響樂的表演。
而神經元上是否也是如此?神經相互合作去處理一件事情已經很多證據,但一個神經有
多種能力也在鏡像神經元中發現。若不要小到神經元上,在腦區之間也是如此,一個腦
區有著自己獨特的功能而且通常一個區域不會只有一個功能,例如視覺皮質區,但在語
言作業、記憶等都會有視覺皮質區的介入。這表示實際上我們人腦的運作方式要複雜的
多。
但這裡有個更基本的問題,一個基本的心智功能是什麼,我們的心智功能的最小單位是
什麼?如果釐清了這點,那麼也許更能瞭解我們大腦是如何運作的。
: 所以一定是在基本的本質上有了歧異,才會有這麼大的落差,
: 如果不重新定義對於智慧的看法,我們再怎麼努力也無法貼近真實的智慧。
: 作者在書中提出一個新的理論(也許是綜合各家之說),
: 他把智慧的記憶稱為「預測架構」。
: 簡而言之,就是大腦以神經柱為基本的預測單位,藉由一個普遍的general算則
: 將預測的top-down訊息和感覺的bottom-up兩者做比對
: 有趣的是他認為v1其實是很多細小模組的組合,而不變表徵其實在低階的視覺皮層
: 就已經展現,只是高層的視覺皮層(如IT)確認了低層的pattern而獲得辨識,
: 而皮質間的回饋則是每一層都有,V2也會將所得的刺激往V1,這與現今的發現不謀而合。
: 由此觀之,我們對世界的表徵其實是一層層的包裹,而成階層性的結構。
: 對書的介紹我就不再多提,有興趣的同好可以去找來看!以下亂入一點心得文....
: -----------------------------
: 過去常在書裡看到平行處理,可是卻找不到一個清楚的結構被描述出來...
: 所謂的平行處理還是停留在模型階段...(永遠都可以fit結果,端看你要加幾個參數)
這裡我有問題,就是平行處理怎麼又會是階層性的結構呢?還是我會錯意了。
: 我曾經在暑期學校詢問過幾位做MRI的老師,MRI是否可以觀察到皮層間的活動
: 對我來說,找到一個對應的大腦區域,只是比較精緻的按鍵反應而已...
: (抱歉!希望不會得罪太多人)
事實就是如此 xD
--
※ 發信站: 批踢踢實業坊(ptt.cc)
◆ From: 140.112.4.200
1F:→ ykjiang:《大腦如何思考》一書有類似的觀點,且寫得更詳細,可參考 03/29 21:41
2F:→ vsdvd:不過那個所謂的達爾文機制感覺上和創智慧裡面的觀點不一樣 03/29 22:50
3F:推 takanaka:一點關於model fitting的想法. 如果在方法上使用machine 03/30 02:05
4F:→ takanaka:learning 常用的cross-validation. 並不總是越多參數越好 03/30 02:07
5F:→ takanaka:overfitting通常會在evaluation的時候得到punishment 03/30 02:07
6F:→ takanaka:我想現在做計算模擬的多數對這個議題都有所著墨 03/30 02:09