作者silcas (银光の旗の下に)
看板TheMatrix
标题Re: [问题] 机器人三大定律
时间Fri Jun 27 23:38:00 2003
※ 引述《AlanCloud (2011)》之铭言:
: ※ 引述《logs (龙剑飞)》之铭言:
: : 请问有谁知道,什麽是机器人三大定律?
: : 还有,这样定义的好处是?以及为何要这样定义?
: : 我已经在网路上查到了: http://ai.yichi.org/archives/000014.php
: : 1) 机器人不能伤害人类,或是眼见人类受到伤害而不予行动
: : 2) 机器人应该遵从人类的指令,除非指令与第一条定律相冲突
: : 3) 只要不违反第一和第二定律,机器人必须保护自身的存在
: : from: Isaac Asimov 的《I, Robot》
: : 这个问题,好像没有. 要不要来讨论一下?
: : 似乎很有意思 (当然,这个大问题,早已被很多学者讨论过)
: : 基本上,居於这样的设计理念
: 我们上课的时候说过,
: Asimov创造这三个机器人定律是因为写小说用的,
: 因为Asimov觉得当时利用机器人的题材大多是悲情的机器人或是暴乱的机器人,
: 所以他想出了这个机器人三大定律,
: 但是吊诡的是,
: 这三个定律看似合理但是却又很奇怪,
: 假设今天有一个机器人看到甲想要杀掉乙,
: 他该怎麽办?
: 攻击甲?
: 可是定律一说了他不能伤害人类,
: 可是他又不能坐视人类受到伤害,
: 因此Asimov就利用这有趣的三大定律写出了很多脍炙人口的科幻小说。
的确就是这样,在艾西莫夫所写的小说中,
早期的机器人是很容易因为某些原因"当机"(或称心智凝结)的,
也就是当碰到了无论哪个选择都会无可避免地伤害到人类的时候,
代表两个选择的正电子电位分不出高低,做不出决定,
这个机器就会卡在那里无法进行下一步动作。
也就是等於这个机器人已经死了.....
不过在後期的机器人程式中,程式设计者开始对这样的问题作文章,
使正电子脑可以尽量地分辨不同伤害情形的差别,
甚至在程式真的无法分辨的时候以乱数决定行动,避免机器人心智凝结.....
另外,三大定律的优先性虽然是1>2>3,但是事实上小说中说第二与第三定律间的
优先性其实很模糊,这也使得早期的机器人学家花了很多工夫.....
--
大地に平和を 空に希望を
そして 人心に宽容を
--
※ 发信站: 批踢踢实业坊(ptt.csie.ntu.edu.tw)
◆ From: 218.166.108.110