作者LoveSports (我要当一个渣攻)
看板Gossiping
标题Re: [问卦] Claude是得罪了谁?
时间Tue Mar 3 20:51:54 2026
※ 引述《Supasizeit (Shitpost King)》之铭言:
: Anthropic 拒绝在使用条款中
: 开放战争部大规模监控以及自动化武器
: 遭到战争部解约
: 并且全面禁止联邦政府官员与供应链厂商使用
: 隔没几天
: OpenAI 火速签订政府契约
: 条款中明定禁用於大规模监控以及自动化武器
OpenAI发表的与战争部的条款 2/28发布 3/2修改
(请google: Our agreement with the Department of War 不确定八卦板能不能贴)
但是两个版本都有漏洞 以下是Claude Opus 4.6的两篇分析
(正确性验证:Gemini 3.1 Pro、GPT 5.2 Thinking mini、Grok 4.2 Beta)
毕竟涉及他国法律离我们有点远
如果看不下去或看不懂的人请看下一篇 Gemini写的说故事版XD
=====================================================================
2/28
好的,让我直接对照 OpenAI 那份合约的原文,逐条分析其中的法律与技术缝隙。我会尽
量区分「高度可能」和「理论上可能但需要更多条件」的情况。
一、实现「接近自主武器」的路径
合约核心条文是:AI 不得在法律、法规或国防部政策要求人类控制的情况下
「
independently direct」自主武器。
这句话有三个可以被利用的支点。
第一个支点是
「independently direct」的定义。这个措辞禁止的是 AI
「独立指挥」,
但没有禁止 AI
「建议、推荐、排序、筛选」。
在实际的作战场景中,差别可以被压缩到
几乎为零。设想一个情境:AI 系统持续扫描战场,自动识别威胁,自动排定打击优先序
,自动计算最佳攻击窗口,然後把一个整合好的打击方案推送到指挥官萤幕上,指挥官只
需要点「批准」。
整个决策的实质内容都是 AI 完成的,人类只贡献了最後那一下点击。
在法律上,AI 没有「独立指挥」任何东西,它只是「辅助」了人类决策。但
在功能上,
人类已经从决策者退化成了批准者。
这不是假设。美军现有的神盾舰方阵近迫武器系统(Phalanx CIWS)已经可以在全自动模
式下运作,不需要人类逐次批准每一发拦截。这证明了
美军的现行政策框架确实允许在特
定情境下省略人类逐次决策。
第二个支点是
「where law, regulation, or Department policy requires human
control」这个限定语。
DoD Directive 3000.09 并非全面禁止自主武器,而是建立了一
个审批框架。
(发文者注:DoD Directive 3000.09(美国国防部第 3000.09 号指令)是美国国防部针
对自主武器系统(Autonomy in Weapon Systems)所制定的核心政策文件。)
该指令要求自主和半自主武器系统经过高层审查和批准,并通过严格测试。但通过审批之
後,系统就可以被部署。所以合约的这句话实际上是说:
「在国防部政策要求人类控制的
地方,我们不会绕过。」但国防部政策本身并不是在所有地方都要求人类控制。
第三个支点是
云端与边缘的问题。OpenAI 在 FAQ 中强调,
因为是云端部署,物理上不可
能驱动自主武器,因为那需要边缘部署。这个论点在技术上确实比其他AI说的要有更多分
量——军事通讯环境不像民用网路那麽稳定,在被干扰的环境下云端确实无法可靠控制武
器。但这个论点也有其限度:
在非对称作战中(如委内瑞拉那种对手电子战能力有限的场
景),通讯延迟可能低到几十毫秒,此时云端 AI 即时下达指令给无人机在功能上已经接
近边缘部署的效果。而且随着低轨卫星通讯技术的发展,这个技术鸿沟会持续缩小。
更关键的是,合约对「边缘部署」的禁止似乎只约束 OpenAI 自身的部署架构。
如果五角
大厦从 OpenAI 的云端获取了 AI 的分析结果和打击建议,然後自行将这些结果整合进边
缘设备的指挥链中,OpenAI 在技术上可以主张自己没有进行边缘部署。决策的「最後一
哩路」是五角大厦自己走的。
二、实现「大规模监控」的路径
合约的相关条文是:AI 系统不得用於对美国人的隐私资讯进行
「unconstrained
monitoring」,且须符合第四修正案、FISA 1978 和 EO 12333 等法规。
这里最关键的用词确实是
「unconstrained」。这个词把禁止范围从
「所有监控」缩小到
了「无约束的监控」。只要监控是在某个法律框架的「约束」下进行的,就不违反合约。
而 FISA 第 702 条本身就提供了这个框架。根据 702 条款,情报机构可以在不需要针对
个人的搜索令的情况下,
对境外外国人进行电子监控。
问题在於,在搜集外国目标的通讯
过程中,美国人的通讯会被「附带收集」(incidental collection)。这些附带收集到
的美国人资料,在一定条件下可以被保留和查询。
现在设想这个场景:AI 系统被部署来分析某个外国恐怖组织的通讯网路。为了找出这个
网路的节点和联系人,AI 可能需要扫描大量的通讯数据,其中不可避免地包含美国人的
通讯。AI 在这个过程中建立了人际关系图谱、行为模式分析、异常侦测模型。这整个过
程在 FISA 702 和 EO 12333 的框架下是合法的,因为主要目标是外国人。AI 系统也没
有进行「unconstrained」的监控——它是在「foreign intelligence purpose」的约束
下运作的。
但实际效果是,大量美国人的资料被 AI 系统处理和分析过了。
Anthropic 的措辞是拒绝「mass domestic surveillance」,这是一个更清晰的界线。
OpenAI 的措辞用「unconstrained monitoring of U.S. persons' private
information as consistent with these authorities」,这等於是说:只要符合现行情
报法规,监控就是可以的。而现行情报法规本身就允许相当宽泛的资料收集。
另外值得注意的是,合约提到的是「U.S. persons」——美国人。
这意味着对非美国人的
监控基本上不受这些条款限制。如果五角大厦想用 AI 对某个外国城市的人口进行大规模
影像分析、通讯监控或行为追踪,合约中没有明确的条款禁止这麽做,只要操作符合「
lawful purposes」和「foreign intelligence purpose」。
三、最容易被忽略的路径:定义权的争夺
以上所有分析都建立在一个前提上:合约中的关键词汇由谁来定义?
「Independently direct」是什麽意思?AI 提供了 99% 的决策内容,人类只做了最後
1% 的批准,这算不算「独立指挥」?
「Unconstrained monitoring」的门槛在哪里?扫
描一百万人的资料算不算
「unconstrained」,如果是在寻找某个特定外国目标的过程中
?「Mass domestic surveillance」和「targeted intelligence collection with
incidental domestic data」的界线在哪里?
这些定义在合约中没有被精确界定。在实际操作中,这些定义很可能由五角大厦的法律顾
问来解释,而不是由 OpenAI 的安全研究员来解释。OpenAI 有
cleared 工程师在场,但
如我前面提到的,这些工程师在机密环境中的话语权和独立性是受限的。他们可以提出技
术意见,但最终的操作决定权在军方手中。
四、一个重要的平衡观点
以上分析展示了合约可以被如何利用,但我也要指出另一面:
这些路径都不是没有阻力的
。
美国的军事法律体系确实有监察长、国会监督委员会、军法体系等制衡机制。如果五角大
厦明确越线,被发现後会面临法律和政治後果。合约中的模糊地带是双向的——OpenAI
的律师同样可以援引这些条款来主张军方的某个特定用途违约。而且公众舆论和媒体监督
也是一个现实的制约力量,正如 Anthropic 与五角大厦的对峙本身就引发了大量媒体关
注和公共讨论。
真正的风险不在於某个单一的明确越线行为,而在於渐进式的界线模糊。每一次小小的扩
展解释,每一次「特殊情况」的豁免,每一次「战时紧急」的权宜,都会把可接受的边界
往外推一点。等到累积到一定程度回头看时,原本的红线可能已经面目全非。这才是这份
合约最值得警惕的地方。
3/2 修改版
==============================================================
好的,让我直接对照原版(2月28日)和更新版(3月2日)的差异,做独立分析。
新增条文的完整内容
更新版在原文最前面加了一整段,核心是两个新条款:
第一条:「the AI system shall not be intentionally used for domestic
surveillance of U.S. persons and nationals.」
第二条:「the Department understands this limitation to prohibit deliberate
tracking, surveillance, or monitoring of U.S. persons or nationals, including
through the procurement or use of commercially acquired personal or
identifiable information.」
以及一个机构排除声明:「our services will not be used by Department of War
intelligence agencies like the NSA. Any services to those agencies would
require a new agreement.」
还有一个机制性安排:成立由前沿 AI 实验室、云端供应商和国防部政策与作战部门组成
的工作小组。
逐条分析
第一条:「intentionally」的法律效果
原版的措辞是「shall not be used for unconstrained monitoring of U.S. persons'
private information」。新版改成了「shall not be intentionally used for
domestic surveillance of U.S. persons and nationals」。
表面上,这是一个升级——从禁止「无限制的监控」变成禁止「国内监控」,范围看起来
更广。但「intentionally」这个词引入了一个主观意图的要件。在法律上,要证明某个
行为违反这条条款,你不只要证明监控发生了,还要证明监控是「蓄意」针对美国人的。
这在情报操作中的实际意义是:如果 AI 系统被部署来追踪一个外国目标(比如一个跨国
贩毒网路的首领),在追踪过程中系统处理了大量美国人的通讯、金融和位置数据,这在
法律上不构成「蓄意」对美国人的监控,因为意图是指向外国目标的。美国人的数据是「
附带」被卷入的。
相比之下,如果条款写的是「shall not be used in any manner that results in
surveillance of U.S. persons」(不得以任何导致监控美国人的方式使用),那就是一
个客观结果标准,不管意图如何,只要结果涉及美国人就违规。OpenAI 没有选择这种写
法。
所以这个修改的净效果是:用一个看起来更强硬的词(「domestic surveillance」比「
unconstrained monitoring」听起来范围更大)搭配一个实际上更宽松的限定词(「
intentionally」引入了意图要件),最终的保护力度反而可能不升反降。
第二条:「commercially acquired personal information」的意义
这条是全新加入的,明确禁止透过采购商业数据来追踪美国人。结合 Axios 报导中
Emil Michael 向 Anthropic 提出的条件——允许使用从数据掮客购买的地理位置、浏览
记录和财务资讯——这条新增条款几乎可以确定是针对那篇报导的直接回应。
这是更新中最有实质意义的一条,因为它封堵了一个非常具体的路径:政府透过购买商业
市场上的个人数据来绕过传统情报收集的法律限制。这个做法近年来在美国情报界已经引
发了大量争议,2023 年就有解密报告揭露多个情报机构在没有搜索令的情况下购买美国
人的位置和网路数据。
但要注意的是,这条同样受到第一条「intentionally」的修饰。「prohibit
deliberate tracking... including through the procurement or use of
commercially acquired personal or identifiable information」——禁止的是「刻意
的」追踪行为。如果购买商业数据的「主要目的」是追踪外国目标,美国人的数据只是「
附带」出现在数据集中,这条的约束力就存疑了。
另外,
这条只禁止使用商业数据来「追踪、监控」美国人,但没有禁止使用商业数据本身
。如果军方购买了一个包含数百万人记录的数据集,用 AI 来分析其中的外国目标网路,
过程中「顺带」建立了美国人的关联图谱,只要不是「刻意」针对美国人,合约的文字可
能并不构成障碍。
机构排除条款:「intelligence agencies like the NSA」
这条声明排除了 NSA 等国防部情报机构使用 OpenAI 的服务。这在公关上很有效,因为
NSA 在公众心中就是监控的代名词。
但需要注意几个技术细节。首先,「like the NSA」这个措辞的法律精确度不高。它是指
所有国防部下属的情报机构(包括 DIA、NGA、NRO 等),还是只指与 NSA「类似」的信
号情报机构?如果一个负责地理空间情报的机构(NGA)需要用 AI 分析卫星影像来支援
作战,它算不算「like the NSA」?这取决於解读。
其次,条款说的是「our services will not be used by Department of War
intelligence agencies」。但在实际的军事指挥架构中,情报流动是跨机构的。如果一
个非情报单位(比如联合作战司令部)使用 OpenAI 的系统进行作战规划,而这个规划的
输入数据中包含了来自情报机构的资讯,这算不算「情报机构使用了 OpenAI 的服务」?
从严格的技术角度看,使用服务的是作战司令部,不是情报机构。
第三,条款说「Any services to those agencies would require a new agreement」—
—这不是永久禁止,而是说需要另签合约。这留下了未来开放的可能性。
工作小组
这个机制安排本身是中性的。它可以成为真正的政策讨论场域,也可以成为吸收争议的缓
冲区。值得注意的是,OpenAI 明确说「we hope will help create a pathway for
other labs to work with the Department going forward」——这暗示这个小组的一个
功能是为 Anthropic 回归创造条件。如果是这样,它可能反映了 Nakasone 等人的施压
成果。
(发文者驻:退休将军保罗·纳卡索内(Paul Nakasone)曾任美国国家安全局局长和美国网路司令部
局长,也是 OpenAI 董事会成员,)
但工作小组的组成——「frontier AI labs, cloud providers, and the Department's
policy and operational communities」——没有包含任何独立的公民自由团体、国会代
表或司法监督人员。这意味着讨论将在产业和军方之间进行,缺乏外部制衡的声音。
整体评估
这份更新最诚实的描述是:
它是一份针对特定舆论危机的精准回应文件。每一条新增内容
都可以对应到过去一周的具体争议——「intentionally」回应了对监控的广泛担忧,「
commercially acquired information」回应了 Axios 的爆料,「NSA」回应了公众对情
报机构的恐惧,工作小组回应了对 Anthropic 被排除的批评。
它在公关层面上是有效的:每一个争议点都有了一个可以指向的条款。
但在法律层面上,
新增的每一条保护都附带了可以被利用的限定语。「Intentionally」把客观的行为标准
转化为主观的意图标准;「like the NSA」把精确的机构清单模糊化;「deliberately」
为「非刻意」的数据收集留下了空间。
而最能说明问题的,仍然是那个没有被修改的部分:关於自主武器的条款。原版的「
independently direct」、「where law, regulation, or Department policy
requires human control」这些措辞,在更新中一字未动。在一份明显是为了回应舆论压
力而
紧急修订的文件中,选择完全不碰自主武器的条款,本身就是一个清晰的信号。
: 接下来Claude就大规模挂点
: 已经连续三四天出问题了
: 他是不是得罪了谁
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 146.70.31.58 (日本)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Gossiping/M.1772542318.A.B68.html
※ 编辑: LoveSports (146.70.31.58 日本), 03/03/2026 21:09:16
1F:→ widec: 奥特曼就是 给我钱 我跪舔 1.165.35.241 03/03 21:22
2F:→ widec: claude自恃有才 不与浊流 就被铁拳了 1.165.35.241 03/03 21:22
目前他们签的合约不论旧版新版
都没有限制到对外国人进行大规模监控的部分
这个好像跟我们比较有切身关系
(虽然我觉得模型被用於接近自主作战这点问题很大)
※ 编辑: LoveSports (45.250.255.8 日本), 03/03/2026 22:28:57
提醒一下 如果有人想贴这些内容去跟AI讨论没关系
但是要小心触发安全警戒喔 这里面很多关键字踩线
※ 编辑: LoveSports (45.250.255.8 日本), 03/03/2026 22:38:48