作者logs (龙剑飞)
看板TheMatrix
标题Re: [问题] 机器人三大定律
时间Fri Jun 27 17:48:20 2003
: 如果你采用 sentimental programs 的话,
: 就不能用 chip 控制意识,
我想,那个防堵 chip
也可以设计成是最後的安全防线
不见得机器人的行事准则
都要依靠该晶片
如果,机器人会发生伤害人的行为
当然要让机器人自我崩溃啊
不是说发明 AI 要做什麽
chip 只是 just for safety
我所重视的观点,在於最後一道防线
那个可阻止机器人伤害人类的 chip
不管机器人用哪种模式运行
否则,电脑有了感情
但是哪天电脑的感情出了问题
却没有办法把机器人关掉
这才是严重的问题吧
像我在撰写程式码的时候
基础设定写下的,一定是「强制关闭」
否则在 test run 的时候
来个措手不及的 crash,怎麽得了?
即便是最终定稿,也还是保留该 function.
试想假如哪天程式当掉,连 Ctrl + Alt + Del 都无效的时候
不是很糟糕吗?
总结,chip 规则,可以不主导机器人的 AI 思维
但必须作为最後防线
以避免不可预期的惨剧发生
: 不然会造成精神崩溃。
: sentimental programs 允许电脑有感情,
: 如果感情和 chip 的规则相冲突,
: 电脑就会崩溃,
: 那你发明 AI 干嘛?
: 简单的说,你要嘛就用不像人的机器人,
: 想要像人就没法像机器人。
我的想法是,机器人可利用 sentimental programs
使行为模式像人
但必须使用某些手段
让机器人无法伤害人类 ...... chip
: 显然出问题的是透过 sentimental programs 来控制的机器人,
: 如果是普通工程用的机器人,根本不可能暴动。
: 也许你会问,那人干嘛要用 sentimental programs 来控制呀,
: 不是自找麻烦吗?
: 你可以看看史蒂芬史匹伯的 AI 这部电影就知道啦,
: 很多时候,电脑人是人的延伸,
: 连上帝都想以自己的形象造人,
: 更何况是经常自以为是上帝的人类呢。
: 创造了类似人类的新生命,自以为是上帝的无知人类,
: 终究会走向自我毁灭的命运。
这是 eva 吗!
: 不要怀疑,这种事人类经常做呢,
: 现在的复制人技术,就是引发争论的最好例子。
: 有没有想过,万一复制人暴动怎麽办?
嘿!其实这跟教育问题也是一样的
同样的教育,可以教导出杰出的科学家、造福世人的博爱家
但也同样会跑出恐怖大魔王
而且还是智慧型的,受过高等教育
复制人为何暴动?
想必是为了人权的问题.
关於这个,哈利波特的小精灵(ex:多比)就是个例子(请看火盃的考验)
以上,我的看法
仍然是,不论机器人如何
都最好加个最後防线的防堵chip
以免机器人暴走
不过,当你创造出一个远超越你能力所可以控制的东西时
事情会怎麽演变,难以预测
可以看的出来,matrix 也表达了
现代人类一直盲目追求“先进???”科学
却超出自己的控制范围
於是,来个戏剧性的毁灭
不说 matrix
现实世界真的就是如此
拿塑胶来讲
很容易制造,同时也很难善後
搞的现在乌烟瘴气
: 突然想起科学怪人这部电影呢。 ^^
--
※ 发信站: 批踢踢实业坊(ptt.csie.ntu.edu.tw)
◆ From: 140.116.131.38