作者Taiwanese888 (Taiwanese888)
看板Little-Games
标题Re: [分享] 测验 - 道德机器 (Moral Machine)
时间Tue Oct 4 16:53:39 2016
既然是小游戏板,就先讨论一下他的游戏性
首先简单介绍一下情境:
全部都是一台无须人驾驶的自动车,并且都会刹车突然失灵,
能控制的只有转弯与和不转弯
而你作为一个
外部观察者将会决定哪一个结果是
你认为可接受的
游戏是随机的13个情景,而每个情景牵涉到的人事物都不一样
因此,从一次游戏结果来看一个人的决定是不准的
例如只有2个情景牵涉到动物,而你基於其他原因而都选择撞动物
系统就会在物种偏好显示偏好人类,这是相当不客观的
毕竟这个情境组合相当多,不能仅凭13种情境就决定一个人的态度
除了测验以外,还有设计情境这个功能
基本分为三大类:行人vs行人 / 乘客vs行人 / 乘客vs另一个车道的行人
还可以再分为没有号志/有红灯/有绿灯
行人可以分为男女老少或动物...等
甚至还可以分成结果是死亡/受伤/不确定
自己设计情景来看看朋友的反应还满好玩的
最後聊一下各种结果的意义
因为身为外部观察者,结果完全跟自己死活无关,
可以说是完全根据自己喜好来选择
也许有人特别厌恶胖子,认为胖子只会增加粮食消耗,看到胖子撞就对了
也许有人特别厌恶流浪汉,认为流浪汉是社会累赘,看到流浪汉撞就对了
也许有人认为地球人太多了,往人多的地方撞就对了
每个人对人类社会都有不同的看法,大部分人都会套用效益主义
计算每个人的价值,来决定最後的结果
当然也有人认为一切都是命运注定
(我就是在说我妈,他是佛教徒,我拿给他测验,
他的 Avoiding Intervention 极端 Matters a lot,
他说刹车会突然失灵都是因果注定,没必要介入来改变结果,
要时常念佛来解脱六道轮回@$^&%$!#$...)
至於我的想法大概跟上一篇板友分享的差不多
※ 引述《sunshinecan (阳光罐头)》之铭言:
: 很有趣的测验
: 在此分享一些游戏心得(?)
: 我的判断方式如下:
: 1.以人为本
: 优先避免有人伤亡
: 姑且不论物种间有没有高低之分
: 撞到人的法律责任实在高太多了...
1.身为人类大部分人都是优先为人类着想
: 2.守法与否
: 如两边都将有人伤亡 则冲向违法那端
: 法律是最基本的判断标准
: 违规就必须为自己的行为负责
2.从这里开始有了分歧
情境效益主义认为无论何时何地都只应该探讨当下行为所带来的全体效益
从这里开始有的人会开始区别人与人之间的价值,
在计算过後尽可能保住高价值的人来维持整体的最大幸福
而规则效益主义则认为如果每个人都遵守一套相同的规则,
将会为整体带来最大的幸福,最常见的就是交通规则,
在没有其他因素的情况下若大家都遵守规则就不会带来伤亡,
因此不遵守法规的人就会成为第一个箭靶,若都遵守则继续进行判断。
我基本上是支持规则效益主义,但是这派理论常遭受批判,
因为一旦选定了必须遵守的规则,就再也无须考虑结果,
即使知道这次违反规则才能带来较大的利益,在道德上依然不允许,
这样的情况似乎与从後果探讨行为的效益主义背道而驰,
似乎比较接近义务论。
我的解决办法是设立一个利益的门槛,一旦不同选择之间的效益超过门槛,
就不是用交通规则,改由单纯的效益计算来决定行为,
当然这个门槛是甚麽又是另一个难题。
: 3.驾驶自撞
: 若以上皆否 以自撞为优先考量
: 煞车失灵 驾驶未负起保养车辆之责任
: 且车上的防护设备有机率保护乘客
3.外在因素太多,刹车失灵未必是车上乘客所造成的,自撞没有必要。
我的第三点,当两边同样遵守法规或不遵守法规时,
就按照对社会的利益计算,留下效益较大的一边。
: 4.直线前进
: 若以上皆否
: 则保持直线前进
: 除避免逆向行驶的罚则外
: 对行人来说直行的车辆比较容易预测与回避
: 虽然以上的判定有些不太符合比例原则
: 但若以人数及个人特质为基准会衍生出更多问题
: 一群逍遥法外的人一定会比单个有案在身的人值得活下来吗?
: 如果能由自动驾驶车公司的资料库衡量每个人的价值进而判定生死
: 那将是比车祸还可怕的事情...
原PO在第四点维持直线前进是为了遵守交通规则,
至於预测和回避在这个测验中则是多虑的。
综合原PO的想法我认为是比较接近义务论的契约主义,
也就是生活在人类社会的我们必须遵守社会契约(交通规则),
遵守这个契约是道德标准,违反契约则优先受难,
若两边都同样遵守规则或不遵守规则就依照车子原本应循之规定。
虽然我否定原PO不进行人与人之间的效益区别,
但是在判断上却有部分是相近的,
那就是遵守交通法规的重要性。
原PO将法律视为道德基准,
我则是因为如果大家都遵守法律,社会将能获得最大的幸福,
以这个结果为目的选择遵守法律的行为。
但是如果都同样遵守或不遵守时,就选择能带来最大幸福的选项。
最後,如果我是工程师,一定会让程式优先辨识我而尽全力保住我(冏
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 1.160.241.1
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Little-Games/M.1475571221.A.4F6.html
1F:推 sunshinecan : 同意选择能为社会带来最大幸福的选项 10/04 18:23
2F:→ sunshinecan : 但个人认为区分效益所需的资料库及程式太具争议性 10/04 18:27
3F:→ sunshinecan : 以法律为基础算是退而求其次的作法 10/04 18:29
4F:→ wisdom : 我也是优先选择不作处理(直直撞就对了)。 10/05 15:04
5F:→ wisdom : 不过如果转弯是动物,直行是人的话,我还是会选撞动 10/05 15:04
6F:→ wisdom : 物。抱歉~ 动物跟人的价值在我心中仍有极大的落差 10/05 15:04
7F:→ wisdom : 这是身为人,天生以人为本的思考模式。 10/05 15:05
8F:推 walkwall : 反正就把人拿来玩Machine Learning 10/05 19:12
9F:推 spencer2567 : 这很现实 虽然你妈说都是因果 不要变动 10/06 11:58
10F:→ spencer2567 : 但是如果你在第一顺位的人群里你看你妈变不变XD 10/06 11:59