作者LoveSports (我要当一个渣攻)
看板Gossiping
标题Re: [问卦] Claude是得罪了谁?
时间Tue Mar 3 21:56:41 2026
※ 引述《Supasizeit (Shitpost King)》之铭言:
: Anthropic 拒绝在使用条款中
: 开放战争部大规模监控以及自动化武器
: 遭到战争部解约
: 并且全面禁止联邦政府官员与供应链厂商使用
: 隔没几天
: OpenAI 火速签订政府契约
OpenAI发表的与战争部的条款 2/28发布 3/2修改
但是两个版本都有漏洞
以下是Gemini 3.1 Pro把本串上一篇Claude Opus 4.6写的改写成给一般人的好读版
深入探讨 OpenAI 与五角大厦合约(初步评估)
在检视 OpenAI 与五角大厦合约中的技术与法律用语时,会发现几个
「灰色地带」。让我
们来剖析这些明文规定的保护措施在实务上可能有哪些不足之处,我们将主要聚焦於两大
隐忧:
自主武器与大规模监控。
1. 通往「近乎自主」武器之路
合约核心文本指出:在法律、法规或国防部政策要求人类控制的情况下,AI 不会「独立
指挥(
independently direct)」自主武器。
这句话包含了三个重大的漏洞:
「独立指挥」到底是什麽意思? 合约禁止 AI 担任唯一的指挥官,但
并没有阻止 AI 完
成 99% 的工作。AI 可以持续扫描战场、识别威胁、进行威胁排序、计算完美的打击时机
,并向人类提出完整的攻击计画。如果人类只是点击「批准」,在法律上 AI 并没有「独
立指挥」任何事情,但在
实务上,人类已经从决策者沦为单纯的橡皮图章。
注:
这不是科幻小说。美国海军的方阵近迫武器系统(Phalanx CIWS)已经可以在全自动
模式下运作,不需要人类批准每一次射击。
「在政策要求人类控制的情况下」的但书。 合约基本上是在说:「如果五角大厦的规定
要求必须有人类介入,我们就不会绕过人类控制。」然而,五角大厦的政策(例如美国国
防部指令 3000.09)
并没有明文禁止所有自主武器;它只是建立了一套批准流程。一旦系
统获得批准,就可以进行部署。
「云端与边缘」的辩护。 OpenAI 主张,因为他们的 AI 运行在云端,所以
无法真正在战
场上扣下扳机(这需要直接在无人机或武器上进行「边缘」部署)。虽然这在技术上有些
道理(军事通讯有时并不可靠),但这并不是一道坚不可摧的防线。
如果五角大厦从
OpenAI 的云端撷取目标分析与打击建议,并将这些数据输入他们自己部署在边缘的武器
系统中,OpenAI 就可以声称他们没有在边缘(终端)部署。军方只是完成了最後一步。
2. 通往大规模监控之路
合约指出:AI 系统不得用於对美国民众的私人资讯进行「无限制的监控(
unconstrained monitoring)」。
「无限制」的危险性。 藉由禁止「无限制的」监控,合约暗中允许了在现有法律框架限
制下的监控行为。
《外国情报监视法》(FISA) 第 702 条的漏洞。 第 702 条允许情报机构在没有搜索票的
情况下监控外国目标。然而,如果 AI 正在分析一个外国恐怖分子网络,它不可避免地会
捞取到与这些目标互动的美国人的通讯内容(这被称为「附带蒐集」)。AI 可以处理数
百万个数据点,建立社交图谱和行为模型。
在法律上,这并非「无限制」,因为主要目标
是外国人,但实际结果却是处理了大量的美国公民数据。
「大规模国内监控」与「无限制监控」的对比。 Anthropic(另一家AI公司)明确拒绝参
与「大规模国内监控」——这是一条非常清晰的界线。而
OpenAI 选择了更狭隘的措辞,
基本上是在说:「只要现行情报法律允许,我们就允许监控。」
那非美国人呢? 合约特别保护了「美国民众(U.S. persons)」。这就留下了一个後门
:
AI 可能被用於在国土外对外国人群进行大规模监控、脸部辨识或通讯追踪,而不会违
反这项协议。
3. 谁来定义规则?
合约最大的问题在於关键术语的模糊性。
到底什麽才构成「独立指挥」?
「伴随附带数据的针对性蒐集」与「无限制监控」之间的界线在哪里?
这些定义都没有明确说明。在现实中,很可能将由五角大厦的律师(而非 OpenAI 的安全
研究员)来解释这些规则。
虽然 OpenAI 的工程师会参与其中,但他们否决军事行动的权
限受到极大的限制。
(发文者注:AI另外说明因为参与的工程师必须签保密约,终身受间谍法约束不得告密。)
4. 总结
虽然军事法律系统有监督机制,公众舆论也能对公然越权发挥吓阻作用,但
真正的危险在
於「任务潜变(mission creep,指任务范围逐渐扩大失控)」。每一个微小的例外或扩
张性的解释,都会将边界稍微向外推移,最终导致最初设定的「红线」变得毫无意义。
================================================================
OpenAI 更新版合约分析(2026 年 3 月 2 日)
在公众压力下,OpenAI 与五角大厦发布了合约的更新版本。让我们来分析这些新增内容
及其在实务上的意义。
1. 关於「有意」监控的新条款
更新内容: AI 系统不得被「
有意(intentionally)」用於对美国民众和国民进行国内
监控。
陷阱在於:「有意」。 表面上,禁止「国内监控」听起来比原本禁止「无限制监控」强
硬得多。然而,加上「有意」这个词,在法律层面上彻底改变了这条规则的运作方式。
漏洞所在: 要打破这条规则,必须证明军方「打算」监控美国人。如果 AI 正在追踪一
个外国贩毒集团,并「意外」处理了数千名与该网络互动的美国人的数据,这并不违规,
因为其主要意图是进行外国监控。
结论: 由於要求提供意图证明,这种看似「更强硬」的措辞,实际上提供的保护,反而
比一条简单明了的严格规定(如「该系统不得以导致美国人被监控的方式使用」)还要薄
弱。
2. 关於购买商业数据的新条款
更新内容: 国防部理解此限制禁止
蓄意(deliberate)追踪……包括透过采购或使用藉
由商业途径取得的个人或可识别资讯。
背景脉络: 这是对近期新闻报导的直接回应。
报导指出军方希望使用 AI 来分析从商业
数据经纪商购买的定位和金融数据——这是一种极具争议、用来规避搜索票限制的做法。
漏洞依然存在: 就像第一条款一样,这项规定被「蓄意」这个词削弱了。它只禁止「为
了蓄意追踪美国人」而购买数据。
如果军方购买了一个包含数百万人的资料库来寻找外国
威胁,而美国人刚好在这个资料库中,那麽只要美国人不是主要目标,使用 AI 来分析这
些数据可能仍然是受到允许的。
3. 禁用於「类似 NSA 的机构」
更新内容: 我们的服务不会被国家安全局(NSA)等战争部/国防部情报机构(
Department of War intelligence agencies)使用。向这些机构提供任何服务都需要签
订新的协议。
公关与现实的落差: 禁用於 NSA 是一个绝佳的公关策略,因为大众强烈地将其与监控画
上等号。然而,「类似 NSA」这种法律措辞非常模糊。这究竟是禁止所有国防情报机构使
用,还是只禁止那些与 NSA 从事特定相同类型工作的机构?
情报共享: 军方会在各部门之间共享情报。如果作战部队使用 OpenAI 的工具,并基於
NSA 收集的情报来制定任务计画,那麽在技术上,NSA 算是「使用」了这项服务吗?
并非永久禁令: 该条款特别注明,这些机构只需要「新协议」,这就为未来的合约敞开
了大门。
4. 新成立的工作小组
更新内容: 成立一个由 AI 实验室、云端供应商和国防官员组成的工作小组,以共同讨
论政策。
缺失的声音: 虽然建立对话是件好事,但
该小组目前缺乏公民自由组织、独立监督机构
或国会的代表。它俨然是一个工业与军方的「同温层(echo chamber)」。
Anthropic 的回归之路? OpenAI 的声明暗示,这个小组可能会为其他实验室与五角大厦
的合作建立一条「路径」,这意味着这可能是让最初拒绝合作的 Anthropic 重新回归的
一种方式。
更新的整体评估
这次的合约更新堪称危机处理的「大师级范例」。每一句新加入的条文都直接回应了过去
一周公众的具体抱怨。
然而,从法律的角度来看,每一项新的保护措施都伴随着一个限制性的词汇(如「有意」
或「蓄意」),这
为军方留下了足够的转圜余地,让他们能够继续进行广泛的数据分析行
动。
最能说明问题的是:关於自主武器的条款完全没有修改。 在一个旨在平息公众恐惧的紧
急更新中,决定对武器规则保持原状,这本身就已经说明了一切。
: 条款中明定禁用於大规模监控以及自动化武器
: 接下来Claude就大规模挂点
: 已经连续三四天出问题了
: 他是不是得罪了谁
可怜的Claude
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 146.70.31.58 (日本)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Gossiping/M.1772546204.A.CEB.html
※ 编辑: LoveSports (146.70.31.58 日本), 03/03/2026 21:57:25
1F:嘘 Carloslin: 在国家安全前面都要低头150.116.189.158 03/03 22:01
2F:嘘 iceyeman: 结论就是: 婆 还是要去当兵 ^_^ 36.226.149.81 03/03 22:05
https://i.imgur.com/qfXolCB.png
截图为证 都是讨论正经事喔 清清白白没有什麽公婆^^
可怜的Claude QQ
好啦开玩笑 简单说一下结论 其实可怜的是人类
委内瑞拉作战跟以美对伊朗的攻击 如果有做很接近自主攻击的行为
倒楣的会是人类
1. 出错谁负责 2. 当责任可以推给程式码 发动战争会变得更轻易
※ 编辑: LoveSports (45.250.255.8 日本), 03/03/2026 22:10:52
3F:→ Gallardo: 中国也用科技监控人民 蓝白无视中 36.234.198.167 03/03 22:11
不分哪一国 这些都是大问题
不是只有被攻打的国家或被监控的特定的人或国家倒楣而已
※ 编辑: LoveSports (45.250.255.8 日本), 03/03/2026 22:13:23
提醒一下 如果有人想贴这些内容去跟AI讨论没关系
但是要小心触发安全警戒喔 这里面很多关键字踩线
※ 编辑: LoveSports (45.250.255.8 日本), 03/03/2026 22:39:02