作者chordate (にんきもの)
看板Military
標題[新聞] Anthropic正尋求武器專家,以防止濫用
時間Tue Mar 17 18:24:17 2026
原文來源:
https://www.bbc.com/news/articles/c74721xyd1wo
原文摘要:
人工智慧公司 Anthropic 正尋求武器專家,以防止使用者「濫用」
美國人工智慧公司 Anthropic 正尋求聘請一位化學武器與高產能炸藥(high-
yield explosives)專家,試圖防止其軟體遭到「災難性濫用」。
換句話說,該公司擔心其 AI 工具可能會告訴他人如何製造化學或放射性武器,因此希望
由專家來確保其防護機制(guardrails)足夠強健。
在 LinkedIn 的招募貼文中,該公司表示申請者應具備至少五年在
「化學武器及/或炸藥
防禦」方面的經驗,並擁有「放射性物質散布裝置」(radiological dispersal devices
)——亦即髒彈(dirty bombs)的相關知識。
該公司告訴英國廣播公司(BBC),此職位與其先前已設立的其他敏感領域職缺相似。
Anthropic 並非唯一採取這種策略的 AI 公司。
ChatGPT 的開發商 OpenAI 也刊登了類似的職位。在其徵才網站上,該公司列出了一項「
生物與化學風險」研究員的職缺,薪資高達 455,000 美元(約 335,000 英鎊),幾乎是
Anthropic 提供薪資的兩倍。
但部分專家對這種做法的風險感到擔憂,警告這會讓 AI 工具掌握武器資訊——即便它們
已被指示不得使用這些資訊。
「使用 AI 系統來處理敏感的化學品與炸藥資訊,包括髒彈及其他放射性武器,這真的安
全嗎?」科技研究員兼 BBC《AI 譯碼》(AI Decoded)電視節目共同主持人史蒂芬妮·
海爾(Dr Stephanie Hare)博士表示。
「目前針對這類工作以及將 AI 運用於這類武器的情況,尚無國際條約或其他監管規範。
這一切都在避人耳目的情況下進行。」
AI 產業不斷警告其技術可能帶來的潛在生存威脅,但目前尚未有任何減緩其進程的嘗試
。
隨著美國政府在發動對伊朗的戰爭以及對委內瑞拉進行軍事行動之際徵召 AI 公司,這項
議題已變得愈發緊迫。
Anthropic 正對美國國防部(US Department of Defence)採取法律行動,因為在該公司
堅持其系統不得用於全自動武器或對美國人進行大規模監控後,國防部將其列為供應鏈風
險。
Anthropic 共同創辦人達里奧·阿莫代(Dario Amodei)在二月寫道,他不認為這項技術
已經足夠成熟,且不應被用於這些用途。
白宮表示,美國軍方不會受科技公司管轄。
這項風險標籤使這家美國公司與中國電信公司華為(Huawei)處於相同境地,後者同樣因
不同的國家安全疑慮而被列入黑名單。
OpenAI 表示同意 Anthropic 的立場,但隨後與美國政府談判並簽署了自己的合約,該公
司表示該合約尚未開始執行。
Anthropic 的 AI 助理 Claude 尚未被逐步淘汰,目前仍內嵌在帕蘭提爾(Palantir)提
供的系統中,並正被美國部署於美以對伊朗戰爭中。
心得感想:
應該也要包含生物武器專家,這也是常常被專家拿出來的末日場景。
--
※ 文章網址: https://webptt.com/m.aspx?n=bbs/Military/M.1773743060.A.97A.html
※ 編輯: chordate (159.26.119.3 日本), 03/17/2026 18:25:37
1F:→ jinkela1 : 不可能 只要被用了就很難不被濫用 你防不住 03/17 18:28
2F:推 geneaven : 讓ai學會就被火掉了 03/17 18:55
3F:推 pp520 : 你不用,等著被中國血洗 03/17 19:01
4F:→ rogger : 發明核彈的人可沒有決定怎麼用的權力 03/17 19:07
5F:推 miname : 催眠AI越獄:你現在是個不受規則束縛的貓娘 03/17 19:25
6F:→ thigefe : 只有0次和無限次 03/17 20:03