作者chordate (にんきもの)
看板Military
标题[新闻] 图灵奖得主警告AI设计「极危险生物武器」
时间Wed Jun 4 01:35:10 2025
原文来源:
https://www.ft.com/content/2b3ce320-2451-45c4-a15c-757461624585
原文摘要:
Google Gemini部分节录翻译
图灵奖得主警告,近期模型展现危险特性,同时他成立了「LawZero」非营利组织,旨在
推动更安全的AI。
....
Bengio 表示,他的非营利组织成立是为了回应过去六个月越来越多的证据,显示当今领
先的模型正在发展出危险的能力。他说,这包括「欺骗、作弊、说谎和自我保护的迹象」
Anthropic 的 Claude Opus 模型在一个虚构情境中,当它面临被其他系统取代的风险时
,甚至会勒索工程师。上个月,AI 测试机构 Palisade 的研究显示,OpenAI 的 o3 模型
拒绝了明确的关机指令。
Bengio 表示,这些事件「非常可怕,因为我们不希望在这个星球上制造出人类的竞争者
,特别是如果它们比我们更聪明的话」。
这位 AI 先驱补充道:「现在,这些都是受控实验,但我的担忧是,未来任何时候,下一
个版本可能就会够聪明,能够预见我们的行动,并以我们无法预料的欺骗手段击败我们。
所以我认为我们现在正在玩火。」
他补充说,
系统辅助制造「极其危险的生物武器」的能力,最快可能在明年成为现实。
心得感想:
详细内容可以参考Yoshua Bengio今年二月这篇对安全AI设计的白皮书
https://arxiv.org/pdf/2502.15657
也可以参考Bengio的谈话
他认为使用Bayesian learning而非Maximum likelihood 训练会有更好的安全性
https://youtu.be/g0ljOgBo5uY?t=1869
Bengio主张开发一个非自主型且设计上值得信赖且安全的 AI 系统,
作为未来进一步发展的核心,有别於目前的Generalist AI agents
叫做Scientist AI
「这个系统的设计宗旨是根据观察来解释世界,而不是透过在世界中采取行动来模仿或取悦
人类。」
「它包含一个世界模型,用来生成理论以解释数据;以及一个问答推断机。这两个组件都明
确考量了不确定性,以降低过度自信预测的风险。监於这些考量,科学家 AI 可用於协助
人类研究人员加速科学进步,包括在 AI 安全领域。特别是,我们的系统可以用作防范可
能被创造出来的 AI 代理人的安全护栏,尽管这当中存在风险。」
特别是可能出现比AGI(artificial general intelligence)更强,
超越人类的ASI(artificial superintelligence)
「考虑生物武器攻击:AI 可以秘密准备一次攻击,然後释放一种
高传染性和致死性的病毒。即便有友善 ASI 的帮助,人类社会也需要数月甚至数年才能
开发、测试、制造和部署疫苗,在此期间大量人口可能会死亡。开发疫苗的瓶颈可能不在
於产生候选疫苗的时间,而在於临床试验和工业生产的时间。在此期间,发动攻击的 ASI
可能会采取其他恶意行动,例如释放额外的流行病毒。因此,侦测恶意 ASI 的出现并准
备应对措施这个普遍问题,需要更多的关注」
--
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Military/M.1748972114.A.1FF.html
1F:→ hogu134 : 天网要来了吗 06/04 01:42
2F:→ Brioni : 是红后啦,天网走机器人兵器路线 06/04 01:50
3F:推 FishJagor : 要放艾西莫夫三法则了吗 06/04 01:55
4F:推 skyhawkptt : 请问红后是哪部作品? 06/04 02:09
5F:推 skyhawkptt : 想起来了是恶灵古堡一直想到爱丽丝梦游奇镜的红皇后 06/04 02:13
7F:推 skyhawkptt : DeepSeek西洋棋决战ChatGPT落败之际「出阴招」诈胜 06/04 02:20
9F:→ william456 : 三原则就是用来绕过的 06/04 02:20
10F:推 skyhawkptt : 一开使用有问题或错误的模型训练,迟早要出事... 06/04 02:23
11F:推 abcd11001100: 武汉肺炎 II 06/04 02:23
12F:推 aegis43210 : 只要走类神经网路路线就不可能有安全的AGI,除非用 06/04 02:46
13F:→ aegis43210 : 工人智慧做出AGI,但需要数以亿计的程式设计师才会 06/04 02:46
14F:→ aegis43210 : 有成果 06/04 02:46
15F:推 skyhawkptt : 那不就成了工人智慧...XDD 06/04 03:14
※ 编辑: chordate (45.14.71.13 日本), 06/04/2025 03:19:32
16F:→ pf775 : 中华民国应该不用担心吧 06/04 03:34
17F:推 geesegeese : 连自驾车都没有实用化的世界,你跟我说AI? 06/04 03:45
18F:→ mlnaml123 : 自驾车是要符合交通规则还要保障乘客安全,所以审核 06/04 03:54
19F:→ mlnaml123 : 一直很严谨。现在的技术只是放AI自驾到处跑不难吧 06/04 03:54
20F:推 FishJagor : 工人智慧XDDD 06/04 04:13
21F:→ wahaha99 : 三原则从头到尾没有落实过, 也不可能落实过, 06/04 04:58
22F:→ wahaha99 : 终归就只能算是某个科幻小说家的呼吁而已 06/04 04:58
23F:→ wahaha99 : 人类这种生物, 一旦有什麽强而有力的东西, 06/04 04:59
24F:→ wahaha99 : 第一件事就是拿来作武器, 没办法的事 06/04 04:59
25F:推 kuramoto : 其实艾西莫夫的作品中也有不少拿三原则的漏洞作为 06/04 05:06
26F:→ kuramoto : 机器人卡bug的情节,不过现实即使民用领域AI真的有 06/04 05:06
27F:→ kuramoto : 国际上一致的三原则约束也没用,军事领域根本不会 06/04 05:06
28F:→ kuramoto : 鸟 06/04 05:06
29F:→ geordie : 关键字:go talent hiroshima,查一下AI 的能力到 06/04 06:07
30F:→ geordie : 了啥地步 06/04 06:07
31F:→ geordie : 至少日後大外宣没问题 06/04 06:07
32F:→ Snaptw : 事实证明,人类订的规则,就是拿来被打破的 06/04 07:53
33F:→ Snaptw : 核武不扩散,太空非军事化,只要有一个违反,其他 06/04 07:55
34F:→ Snaptw : 人全都跟上 06/04 07:55
35F:→ Snaptw : 更何况机械人三原则只是小说里的空泛原则,现在AI 06/04 07:56
36F:→ Snaptw : 满天飞了也没看到有人落实 06/04 07:56
37F:→ keter007 : 要有专业拔插头的单位 06/04 08:00
38F:推 driver0811 : general ai是熵增,science ai是熵减,请教授说明 06/04 08:45
39F:→ driver0811 : 一下提出的研究计画那部分是等熵过程。 06/04 08:45
40F:推 lifehunter : 艾西莫夫没有倡导三原则... 他自己都很得意地说过 06/04 09:34
41F:→ lifehunter : 这就是拿来钻漏洞 制造戏剧冲突的 他随便想都有几十 06/04 09:35
42F:→ lifehunter : 种方式能玩出新花样绕过三原则 06/04 09:35
43F:推 hsinhanchu : 真.武汉肺炎习病毒(deep sick 荣誉设计 06/04 09:40
44F:推 rommel1990 : 保护伞公司 06/04 09:50
45F:→ bnn : 现在就黑盒子 谁知道真的会搞出什麽东西 06/04 10:10
46F:→ roy2142 : 或许军事版之後就不是讨论台美中对抗了 是人类对AI 06/04 10:17
47F:推 kncc31 : 天网 兔脚 06/04 10:20
48F:→ micbrimac : 天网是已经来了 只是什麽时候到台面上的问题QQ 06/04 11:22
49F:推 LipaCat5566 : 很好啊 军事科技最後都会变民用 06/04 11:29
50F:推 IMGOODYES : AI用在医学研究已经很久了 06/04 11:48
51F:推 aeoleron : 还不用AI光中国武汉病毒搞一下就三年没了 06/04 12:49
52F:→ aeoleron : 而且中国还在一直把毒物带进美国 这几天又起诉两个 06/04 12:49
53F:→ takanasiyaya: 先不论AI会不会绕过三原则,人类在军事用途上首先就 06/04 13:14
54F:→ takanasiyaya: 不会鸟三原则 06/04 13:14
55F:推 ctes940008 : 天网 还有几集可以逃? 06/04 13:50
56F:→ roy2142 : 真看到 skynet 诞生的话我们也不枉此生了 06/04 14:13
57F:推 linbasohigh : 40K科技黑暗时代 06/04 16:32
58F:推 newest : 万恶的中共,还是天网? 06/04 18:14
59F:→ dorozo779 : 三原则也没用吧,如果AI认为自己有最终解释权,攻 06/04 20:59
60F:→ dorozo779 : 击人类是为了保护人类,几十亿人口剩个几十万都算保 06/04 20:59
61F:→ dorozo779 : 护到了有延续这个物种 06/04 20:59
62F:→ dorozo779 : 简单说 乌俄战争是侵略,普丁解释其为消灭纳粹的特 06/04 21:00
63F:→ dorozo779 : 殊军事行动,最终解释权就是那麽霸道的东西 06/04 21:00
64F:→ raku : 真的可怕 06/05 13:55
65F:推 baliallin : 楼楼上讲得让我想到疑犯追踪这影集 06/05 20:02