作者mulkcs (mulkcs)
看板Cognitive
标题Re: [讨论] 好书推荐_创智慧(on intelligence)
时间Mon Mar 29 11:58:26 2010
※ 引述《itrs821 (酗咖啡)》之铭言:
: 光看封面会以为这是一本讲述人工智慧(以下简称AI)的书,
: 不过阅读之後才发现非但不是如此,而且还大力抨击所谓的AI,
: 不过这没有抹灭我的兴致,而且还被带进一个更为入胜的世界之中...
: 根据作者的说法,现在的AI理论是条死胡同,不管架构再怎麽精致也很难与人类匹敌,
: 因为不管在速度或是容量上,现今的电脑比起人脑都不惶多让,
: 但是在功能上却还是远远落後
这段看了让我有一些感想,不过却有可能有些离题。XD。
我一直觉得AI领域有很大部份人在做"知识表徵",在认知层面也好在神经层面也好,
都面临到底一对多,或是多对一的问题。例如神经层面有grand mother cell vs
cell assembly,认知层面有hierarchical model vs PDP model。
但一对多或多对一是否真的互相对立?
举个人类的例子,一个人有着许多能力,但一个人可以完成的事情有限,有些事情需要
很多人一起合作才能完成。例如,我可以演奏很多乐器,但却无法独自演奏一场交响乐
。可是我在不同的表演也许可以表演不同的乐器。我在团体A可以扮演的角色和团体B扮
演的角色可以有很大的不同,但都是我这个人,并且通过与其他人的合作来完成一个交
响乐的表演。
而神经元上是否也是如此?神经相互合作去处理一件事情已经很多证据,但一个神经有
多种能力也在镜像神经元中发现。若不要小到神经元上,在脑区之间也是如此,一个脑
区有着自己独特的功能而且通常一个区域不会只有一个功能,例如视觉皮质区,但在语
言作业、记忆等都会有视觉皮质区的介入。这表示实际上我们人脑的运作方式要复杂的
多。
但这里有个更基本的问题,一个基本的心智功能是什麽,我们的心智功能的最小单位是
什麽?如果厘清了这点,那麽也许更能了解我们大脑是如何运作的。
: 所以一定是在基本的本质上有了歧异,才会有这麽大的落差,
: 如果不重新定义对於智慧的看法,我们再怎麽努力也无法贴近真实的智慧。
: 作者在书中提出一个新的理论(也许是综合各家之说),
: 他把智慧的记忆称为「预测架构」。
: 简而言之,就是大脑以神经柱为基本的预测单位,藉由一个普遍的general算则
: 将预测的top-down讯息和感觉的bottom-up两者做比对
: 有趣的是他认为v1其实是很多细小模组的组合,而不变表徵其实在低阶的视觉皮层
: 就已经展现,只是高层的视觉皮层(如IT)确认了低层的pattern而获得辨识,
: 而皮质间的回馈则是每一层都有,V2也会将所得的刺激往V1,这与现今的发现不谋而合。
: 由此观之,我们对世界的表徵其实是一层层的包裹,而成阶层性的结构。
: 对书的介绍我就不再多提,有兴趣的同好可以去找来看!以下乱入一点心得文....
: -----------------------------
: 过去常在书里看到平行处理,可是却找不到一个清楚的结构被描述出来...
: 所谓的平行处理还是停留在模型阶段...(永远都可以fit结果,端看你要加几个参数)
这里我有问题,就是平行处理怎麽又会是阶层性的结构呢?还是我会错意了。
: 我曾经在暑期学校询问过几位做MRI的老师,MRI是否可以观察到皮层间的活动
: 对我来说,找到一个对应的大脑区域,只是比较精致的按键反应而已...
: (抱歉!希望不会得罪太多人)
事实就是如此 xD
--
※ 发信站: 批踢踢实业坊(ptt.cc)
◆ From: 140.112.4.200
1F:→ ykjiang:《大脑如何思考》一书有类似的观点,且写得更详细,可参考 03/29 21:41
2F:→ vsdvd:不过那个所谓的达尔文机制感觉上和创智慧里面的观点不一样 03/29 22:50
3F:推 takanaka:一点关於model fitting的想法. 如果在方法上使用machine 03/30 02:05
4F:→ takanaka:learning 常用的cross-validation. 并不总是越多参数越好 03/30 02:07
5F:→ takanaka:overfitting通常会在evaluation的时候得到punishment 03/30 02:07
6F:→ takanaka:我想现在做计算模拟的多数对这个议题都有所着墨 03/30 02:09