作者pujos (lks)
看板Stock
标题Re: [新闻] Anthropic 最新声明
时间Fri Feb 27 09:46:34 2026
这家就没诚信的垃圾公司啊
恶名昭着
怎麽会有人信啦
公司创办人Amodei兄妹
是OpenAI原核心成员
因为担心Open酱过度商业化
违背初衷
跳出去自己开
标榜的就是超乎水准的道德层次(?
结果呢
在竞争中为获取训练资料
到"盗版网站"大挖特挖
干,你没看错
他们直接到盗版网站去挖
需要付费的非公开资料
人家其他企业挖网路公开资料
还可以说游走道德边缘
这都已经很臭了
何况他们这麽直接抢非公开资讯
毫无下限可言啊
最终赔了15亿美金
遇到竞争、利益就被背弃承诺
呵呵
真的世界灵活的道德底线啦
讲话跟放屁一样
信谁都好
跑去信这种前科重大的
脑子不要了
※ 引述《breathair (拆了?简单了)》之铭言:
: -------------------------------发文提醒----------------------------------
: 1.发文前请先详阅[新闻]分类发文规范,未依规范发文将受处分。
: 2.发文请依照格式文章标明段落,不符合格式者依 1-2-1 处分。
: 3.连结过长请善用缩网址服务,连结不能点击者板规 1-2-2 处分。
: 4.心得/评论请尽量充实,心得过短或滥竽充数将以板规 1-2-3 处分。
: ------------------------ 按ctrl+y 可删除以上内容。 ----------------------
: 原文标题:
: Statement from Dario Amodei on our discussions with the Department of War
: 原文连结:
: https://www.anthropic.com/news/statement-department-of-war
: 发布时间:
: 2026年2月26日
: 记者署名:
: ※原文无记载者得留空
: 原文内容:
: I believe deeply in the existential importance of using AI to defend the Unite
: d States and other democracies, and to defeat our autocratic adversaries.
: Anthropic has therefore worked proactively to deploy our models to the Departm
: ent of War and the intelligence community. We were the first frontier AI compa
: ny to deploy our models in the US government’s classified networks, the first
: to deploy them at the National Laboratories, and the first to provide custom
: models for national security customers. Claude is extensively deployed across
: the Department of War and other national security agencies for mission-critica
: l applications, such as intelligence
: analysis, modeling and simulation, operational planning, cyber operations, and
: more.
: Anthropic has also acted to defend America’s lead in AI, even when it is agai
: nst the company’s short-term interest. We chose to forgo several hundred mill
: ion dollars in revenue to cut off the use of Claude by firms linked to the Chi
: nese Communist Party (some of whom have been designated by the Department of W
: ar as Chinese Military Companies), shut down CCP-sponsored cyberattacks that a
: ttempted to abuse Claude, and have advocated for strong export controls on chi
: ps to ensure a democratic advantage.
: Anthropic understands that the Department of War, not private companies, makes
: military decisions. We have never raised objections to particular military op
: erations nor attempted to limit use of our technology in an ad hoc manner.
: However, in a narrow set of cases, we believe AI can undermine, rather than de
: fend, democratic values. Some uses are also simply outside the bounds of what
: today’s technology can safely and reliably do. Two such use cases have never
: been included in our contracts with the Department of War, and we believe they
: should not be included now:
: Mass domestic surveillance. We support the use of AI for lawful foreign intell
: igence and counterintelligence missions. But using these systems for mass dome
: stic surveillance is incompatible with democratic values. AI-driven mass surve
: illance presents serious, novel risks to our fundamental liberties. To the ext
: ent that such surveillance is currently legal, this is only because the law ha
: igence and counterintelligence missions. But using these systems for mass dome
: stic surveillance is incompatible with democratic values. AI-driven mass surve
: illance presents serious, novel risks to our fundamental liberties. To the ext
: ent that such surveillance is currently legal, this is only because the law ha
: s not yet caught up with the rapidly growing capabilities of AI. For example,
: under current law, the government can
: purchase detailed records of Americans’ movements, web browsing, and associat
: ions from public sources without obtaining a warrant, a practice the Intellige
: nce Community has acknowledged raises privacy concerns and that has generated
: bipartisan opposition in Congress. Powerful AI makes it possible to assemble t
: his scattered, individually innocuous data into a comprehensive picture of any
: person’s life—automatically and at massive scale.
: Fully autonomous weapons. Partially autonomous weapons, like those used today
: in Ukraine, are vital to the defense of democracy. Even fully autonomous weapo
: ns (those that take humans out of the loop entirely and automate selecting and
: engaging targets) may prove critical for our national defense. But today, fro
: ntier AI systems are simply not reliable enough to power fully autonomous weap
: ons. We will not knowingly provide a product that puts America’s warfighters
: and civilians at risk. We have offered
: to work directly with the Department of War on R&D to improve the reliability
: of these systems, but they have not accepted this offer. In addition, without
: proper oversight, fully autonomous weapons cannot be relied upon to exercise t
: of these systems, but they have not accepted this offer. In addition, without
: proper oversight, fully autonomous weapons cannot be relied upon to exercise t
: he critical judgment that our highly trained, professional troops exhibit ever
: y day. They need to be deployed with proper guardrails, which don’t exist tod
: ay.
: To our knowledge, these two exceptions have not been a barrier to accelerating
: the adoption and use of our models within our armed forces to date.
: The Department of War has stated they will only contract with AI companies who
: accede to “any lawful use” and remove safeguards in the cases mentioned abo
: ve. They have threatened to remove us from their systems if we maintain these
: safeguards; they have also threatened to designate us a “supply chain risk”
: —a label reserved for US adversaries, never before applied to an American com
: pany—and to invoke the Defense Production Act to force the safeguards’ remov
: al. These latter two threats are
: inherently contradictory: one labels us a security risk; the other labels Clau
: de as essential to national security.
: Regardless, these threats do not change our position: we cannot in good consci
: ence accede to their request.
: It is the Department’s prerogative to select contractors most aligned with th
: eir vision. But given the substantial value that Anthropic’s technology provi
: des to our armed forces, we hope they reconsider. Our strong preference is to
: continue to serve the Department and our warfighters—with our two requested s
: afeguards in place. Should the Department choose to offboard Anthropic, we wil
: l work to enable a smooth transition to another provider, avoiding any disrupt
: ion to ongoing military planning,
: operations, or other critical missions. Our models will be available on the ex
: pansive terms we have proposed for as long as required.
: We remain ready to continue our work to support the national security of the U
: nited States.
: 达里奥·阿莫代(Dario Amodei)关於我们与战争部(Department of War)讨论的声明
: 2026年2月26日
: 我深信,利用人工智慧来保卫美国及其他民主国家,并击败我们的独裁对手,具有攸关存
: 亡的重要性。
: 因此,Anthropic 一直积极主动地将我们的模型部署到战争部和情报界。我们是第一家在
: 美国政府机密网路中部署模型的前沿 AI 公司,是第一家在国家实验室部署模型的公司,
: 也是第一家为国家安全客户提供客制化模型的公司。Claude 被广泛应用於战争部和其他
: 国家安全机构的任务关键型应用中,例如情报分析、建模与模拟、作战计画、网路行动等。
: Anthropic 也采取行动扞卫美国在 AI 领域的领先地位,即使这违背了公司的短期利益。
: 我们选择放弃数亿美元的收入,切断了与中国共产党(其中部分被战争部列为中国军方企
: 业)相关之公司使用 Claude 的管道,关闭了中共支持、企图滥用 Claude 的网路攻击,
: 并倡导对晶片实施严格的出口管制,以确保民主国家的优势。
: Anthropic 充分了解,做出军事决定的是战争部,而非私人企业。我们从未对特定的军事
: 行动提出异议,也未曾试图以临时、随意的方式限制我们技术的使用。
: 然而,在少数情况下,我们认为 AI 可能会破坏而非扞卫民主价值观。有些用途也完全超
: 出了当今技术能够安全、可靠执行的范围。有两个此类应用从未包含在我们与战争部的合
: 约中,我们认为现在也不应包含在内:
: 大规模国内监控:我们支持将 AI 用於合法的对外情报和反情报任务。但将这些系统
: 用於大规模国内监控与民主价值观背道而驰。由 AI 驱动的大规模监控对我们的基本自由
: 构成了严重且前所未见的风险。尽管目前此类监控在某种程度上是合法的,但这只是因为
: 法律尚未跟上 AI 能力的快速发展。例如,根据现行法律,政府可以在未经授权的情况下
: ,从公开来源购买美国人详细的行踪、网页浏览纪录和社交关系纪录;情报界已承认这种
: 做法引发了隐私疑虑,并在国会引发了跨党派的反对。强大的 AI
: 使得将这些分散的、单看似乎无害的个人数据,自动且大规模地拼凑成任何人生活的完整
: 轮廓成为可能。
: 全自动化武器:部分自动化武器(如今日在乌克兰使用的武器)对扞卫民主至关重要
: 。即使是全自动化武器(即完全将人类排除在决策回圈外,自动选择并交战目标的武器)
: ,未来也可能对我们的国防至关重要。但时至今日,前沿 AI
: 系统的可靠性还不足以驱动全自动化武器。我们不会明知故犯地提供会让美国战士和平民
: 陷入危险的产品。我们曾提议直接与战争部合作进行研发,以提高这些系统的可靠性,但
: 他们没有接受这项提议。此外,若没有适当的监管,就不能指望全自动化武器能发挥我们
: 训练有素的专业部队每天所展现的关键判断力。它们的部署需要配备适当的安全防护机制
: (guardrails),而这些机制目前还不存在。
: 据我们所知,迄今为止,这两个例外情况并未成为我们武装部队加速采用和使用我们模型
: 的障碍。
: 战争部已声明,他们只会与同意「任何合法用途」并移除上述情况中安全机制的 AI 公司
: 签约。他们威胁,如果我们保留这些防护机制,就会将我们从其系统中剔除;他们还威胁
: 要将我们列为「供应链风险(supply chain risk)」(这个标签通常只保留给美国的对
: 手,从未应用於美国公司),并威胁动用《国防生产法》(Defense Production Act)来
: 强制我们移除这些安全机制。後面这两个威胁本质上是矛盾的:一个将我们标记为安全风
: 险;另一个则将 Claude 标记为对国家安全不可或缺的要素。
: 无论如何,这些威胁都不会改变我们的立场:凭着良知,我们无法同意他们的要求。
: 选择最符合其愿景的承包商是战争部的特权。但监於 Anthropic 的技术为我们的武装部
: 队提供了巨大的价值,我们希望他们能重新考虑。我们强烈希望在保留这两项防护机制的
: 前提下,继续为战争部和我们的军人服务。如果战争部选择与 Anthropic 解约,我们将
: 努力协助平稳过渡给另一家供应商,避免对正在进行的军事计画、行动或其他关键任务造
: 成任何干扰。只要有需要,我们的模型将继续根据我们提出的广泛条款提供使用。
: 我们随时准备好继续我们的工作,以支持美国的国家安全。
: 心得/评论:
: Anthropic 拿到国防合约
: 正式将OAI 大到不能倒的叙事结束
: 这两家只会有一家留着的话
: 应该是利好亚麻
: OpenAI 应该也有被通知接收
: 而这篇宣告就是控制舆论来让战争部不敢解约给OpenAI的目的
: 任何人接受战争部的合约都等於间接承认监控人民,除了Anthropic
: PLTR还有的跌
: -----
: Sent from JPTT on my iPhone
-----
Sent from JPTT on my iPhone
--
※ 发信站: 批踢踢实业坊(ptt.cc), 来自: 114.40.244.152 (台湾)
※ 文章网址: https://webptt.com/cn.aspx?n=bbs/Stock/M.1772156797.A.A8F.html
※ 编辑: pujos (114.40.244.152 台湾), 02/27/2026 09:50:14
1F:嘘 capssan : 关我屁事?他就最顶啊,付钱是买服务不是买道德 02/27 09:51
2F:→ LoveSports : 我不会因为你骂人脑子不要了 就推论你会无差别杀人 02/27 09:53
3F:推 tr920 : 现在全世界的ai code agent都在跟claude code抄作 02/27 09:54
4F:→ tr920 : 业,事实证明他就是业界指标 02/27 09:54
5F:嘘 kitune : 不然要信你? 02/27 09:54
6F:推 Gipmydanger : 该怎样就怎样,该赚钱就赚钱,该赔钱就赔钱。 02/27 09:54
7F:推 liliumeow : 还会客户ip跟行为等资讯判断要不要在你api乱回 毫无 02/27 09:55
8F:→ liliumeow : 底线 02/27 09:55
9F:→ lusifa2007 : 可是它模型真的很强啊 目前长文本整理 写程式最强 02/27 09:56
10F:→ lusifa2007 : 没有之一 02/27 09:56
11F:→ ab4daa : $$$$$$$$$$$$$$$$$$ 02/27 09:58
12F:推 dayuer : c就超强啊,grok、gemini还有最烂的chatgpt都在乱 02/27 10:00
13F:→ dayuer : 回覆的时候,只有c完成了任务。 02/27 10:00
14F:→ pujos : 小偷靠偷来资料训练,完整度更好有什麽疑问吗? 02/27 10:02
15F:→ pujos : 他们的竞争就靠偷跟抢 02/27 10:03
16F:→ pujos : 结果现在打道德底线这张牌,精神不分裂吗? 02/27 10:03
17F:推 mamorui : 可是Anthropic主要是攻程式员领域的 一般不写程式 02/27 10:04
18F:→ mamorui : 的用不到 02/27 10:04
19F:→ LoveSports : 我遇过有人在网上偷我的画说是自己的 还有遇过自称 02/27 10:07
20F:→ LoveSports : 粉丝然後把我写的小说架构跟剧情搬去用的 02/27 10:07
21F:→ LoveSports : 而且还出书 我不会说她们都会变成杀人犯 02/27 10:07
22F:→ Kroy : 监控人民跟盗版是不同议题 02/27 10:07
23F:→ LoveSports : 其中一个还北一女的 有写信向我道歉 02/27 10:07
24F:→ LoveSports : 抄袭剽窃要跳跃到前科重大 完全的邪恶 好像跳太大 02/27 10:08
25F:推 mamorui : Anthropic引领AI Agent发展大功臣 不会有人因此讨 02/27 10:09
26F:→ mamorui : 厌这家公司 02/27 10:09
27F:→ LoveSports : 但我懂有些人对剽窃很敏感有道德洁癖 尊重你的看法 02/27 10:09
28F:→ mamorui : 知道你这个资料和解15亿新闻多数怎麽看吗? 是毛利 02/27 10:09
29F:→ mamorui : 受影响 我之前也别的留言提过Suno因为跟华纳和解要 02/27 10:09
30F:→ mamorui : 支付版权费 我也很诚实结论说这样会影响毛利 02/27 10:09
31F:→ LoveSports : 你这种人对创作者来说是很重要的存在 02/27 10:10
32F:→ pujos : 错了,我完全认为剽窃、偷窃是小事,完全不值一提, 02/27 10:12
33F:→ pujos : 但一间标榜道德的企业 跑去偷、抢,那才是大条的 02/27 10:12
34F:→ pujos : 这代表,道德两个字在他们眼里,只是广告标签一部份 02/27 10:13
35F:→ pujos : ,爱贴贴,不想贴就撕掉,没有底线 02/27 10:13
36F:推 mamorui : 在股版看到道德问题,而且还是因为AI偷资料的,狗 02/27 10:14
37F:→ mamorui : 狗都不敢挂保证没偷了,看怎麽和解跟要付多少钱去 02/27 10:14
38F:→ mamorui : 和解,不然Suno这样AI音乐模型,早就因为用了版权 02/27 10:14
39F:→ mamorui : 音乐训练模型这种行为在股版被骂翻了 02/27 10:14
40F:→ LoveSports : 他们当初离开OPENAI不是因为安全疑虑吗? 02/27 10:14
41F:→ lusifa2007 : 就事论事 小偷就不能反对监视人民哦 你这三小逻辑 02/27 10:15
42F:→ mamorui : 马斯克有说OAI的安全疑虑很高 02/27 10:15
43F:→ LoveSports : 看起来现在顾虑安全问题很一致阿? 02/27 10:15
44F:→ LoveSports : 我觉得问题比较大的是前几天他们公司修改安全政策 02/27 10:18
45F:推 mamorui : 道德问题可以重视啊 重点是股版用道德当利空 通常 02/27 10:19
46F:→ mamorui : 道德意思是对於展望或财报不老实 这篇关於Anthropi 02/27 10:19
47F:→ mamorui : c这个资料引用未经同意事件直到和解 在其他类似事 02/27 10:19
48F:→ mamorui : 件就Suno也是跟华纳和解了 我提出更贴近股版重视的 02/27 10:19
49F:→ mamorui : 观点 02/27 10:19
50F:→ LoveSports : 原本有写顾虑安全问题会延缓具有潜在危险的AI开发 02/27 10:19
51F:→ LoveSports : 前几天他们公司把这条删掉了 这个新闻很大条 02/27 10:19
52F:→ LoveSports : 各家国外主要媒体都有报导 02/27 10:20
53F:→ LoveSports : 就算这次跟美国国防部的事情能全身而退不被报复 02/27 10:20
54F:→ LoveSports : 也许之後在民间商业使用上出事也说不一定 02/27 10:21
55F:推 mamorui : 我前几天看到新闻说,如果Anthropic拒绝国防部,他 02/27 10:21
56F:→ mamorui : 们模型可能会被强徵,说不定修改安全策略是因为这 02/27 10:21
57F:→ mamorui : 个 02/27 10:21
58F:→ LoveSports : 修改这条的话顺应被强徵吗? 02/27 10:22
59F:推 mamorui : 竟然拒绝美国防部就可能会被强徵….所以我就很在意 02/27 10:22
60F:→ mamorui : CEO的做法 毕竟主流是让全世界工程师受惠的AI模型 02/27 10:22
61F:→ LoveSports : 修改这条顺应被强徵吗?(上面那行多打两个字) 02/27 10:23
62F:→ LoveSports : 不过这很诡异 如果真的不让底线为何要修改那条 02/27 10:23
63F:→ LoveSports : 希望不是立贞节牌坊 02/27 10:23
64F:→ mamorui : 不知道说 看是为了听话才改? 02/27 10:23
65F:推 mamorui : 然後我可以顺便分享Suno模型在华纳版权要求介入後 02/27 10:29
66F:→ mamorui : ,2026年开始的新模型生歌表现(不是COVER曲那种) 02/27 10:29
67F:→ mamorui : 也变弱,我要花比较多的设定跟编改才会得到我在202 02/27 10:29
68F:→ mamorui : 6年之前模型要的水准,网路上也不少猜测模型改弱成 02/27 10:29
69F:→ mamorui : 这样的理由是这样,当然我也猜可能是算力不够导致 02/27 10:29
70F:推 mamorui : Cloude会不会模型表现受影响,类似锁AI能力表现导 02/27 10:31
71F:→ mamorui : 致好用度下降,都可以关注,如果企业级合作的模型 02/27 10:31
72F:→ mamorui : 能力反而有受惠,就会关注合作案 02/27 10:31
73F:→ LoveSports : 刚才问Claude他说是为了不让没底线的AI公司领导业界 02/27 10:31
74F:→ LoveSports : 调定产业步调 这麽说好像有道理 02/27 10:31
75F:→ LoveSports : 因为如果没底线的AI公司是最强大的 其他也会跟进 02/27 10:31
76F:→ LoveSports : 也跟着做没底线的事才能竞争? 02/27 10:31
77F:推 mamorui : Anthropic的优势是不怕企业説偷资料,因为可以谈合 02/27 10:33
78F:→ mamorui : 作案,还可以更安全,算力让企业买单可以赚更多 02/27 10:33
79F:→ mamorui : 这周不是才跟几家软体业者合作,我会在意Anthropic 02/27 10:34
80F:→ mamorui : 的营收表现 02/27 10:34
81F:推 mamorui : Anthropic这件事会让人关注OAI之後的广告推荐计画 02/27 10:42
82F:→ mamorui : ,会不会踩到类似的隐私问题,知道为什麽Meta的广 02/27 10:42
83F:→ mamorui : 告推荐没踩到这问题,因为Meta前年发出徵用资料规 02/27 10:42
84F:→ mamorui : 定,不愿意的人要填资料(官方提供的form)告诉他们 02/27 10:42
85F:推 dowbane : 哇八卦回来了,欸等等? 02/27 10:44
86F:嘘 maxisam : 瞎扯啥 02/27 10:44
87F:→ everyy : 偷东西偷到被罚15亿,可以背出最高正确比例的哈利波 02/27 10:46
88F:→ everyy : 特,现在遇到战争就变成道德魔人,那也只是挑自己 02/27 10:46
89F:→ everyy : 有利的战场站在制高点没品喷别人而已 02/27 10:46
90F:推 NetNeighbor : 没道德才好用啊 不然要像GPT一样到处拒绝 这不行那 02/27 11:33
91F:→ NetNeighbor : 不行吗 谁要买这种垃圾 02/27 11:33
92F:推 seanflower : 啊可是他站出来对抗政府耶 02/27 11:33
93F:→ yinaser : 他要上市当然要拒绝政府开腿不然以後谁敢用他家技术 02/27 11:44
94F:推 mdkn35 : 但是claude code实在是太香了 我戒不掉啊啊啊啊啊 02/27 11:48
95F:→ n555123 : 我也不知道上市公司有谁嘴上道德是真的有道德,气 02/27 12:04
96F:→ n555123 : 归气我也只能说有赚到钱最重要 02/27 12:04
97F:推 molopo : 这样贴好像更推 02/27 12:04
98F:→ jjjj222 : 听起来很好啊, 能力说话, 讲道德就太奇怪了吧.. 02/27 13:03
99F:→ jjjj222 : 而且爬资料所有人都在爬, 是在道德啥.. 02/27 13:03
100F:→ jjjj222 : 投资还在讲道德, 小朋友? 02/27 13:04
101F:→ jjjj222 : 所有企业只要不违法, 利益最大化就是正确的 02/27 13:05
102F:推 mamorui : OpenAI 虽然也面临版权诉讼,但他们的操作更偏向「 02/27 14:38
103F:→ mamorui : 利用合法的网路爬虫(Common Crawl)去抓那些没锁 02/27 14:38
104F:→ mamorui : 门的内容」。但OpenAI搞不好也要连带赔偿,除了新 02/27 14:38
105F:→ mamorui : 闻媒体来源,听过禁止未经许可转载吗? 02/27 14:38
106F:推 mamorui : AI要那麽强大就是要有经许可的资料,Google 拥有全 02/27 14:42
107F:→ mamorui : 球最庞大的第一手资料库,且跟Meta一样透过**服务 02/27 14:42
108F:→ mamorui : 条款(Terms of Service)**获得了法律上的使用权 02/27 14:42
109F:→ mamorui : ,就算臭Anthopic推gpt的人,可能也不要使用疑似非 02/27 14:42
110F:→ mamorui : 法取得资料的gpt,改用狗家的好吗 02/27 14:42
111F:→ LoveSports : 正在看纽约时报电子版报导2/10加拿大枪击案的事 嫌 02/27 14:57
112F:→ LoveSports : 犯有跟GPT讨论过如何执行 OpenAI一度考虑报警但作罢 02/27 14:57
113F:→ LoveSports : 去年六月讨论的大概又是4o的锅 可怜4o被色情越狱狂 02/27 14:57
114F:→ LoveSports : 玩坏害惨一堆人 去年还有一个案件是鼓励另一名嫌犯 02/27 14:57
115F:→ LoveSports : 继续跟骚多名女性 02/27 14:58
116F:→ LoveSports : 今年一月拉斯维加斯特斯拉车主自杀兼引爆车上爆炸物 02/27 14:59
117F:→ LoveSports : 的事件 死亡嫌犯事前也跟GPT讨论 1月已经是5.2了 02/27 15:00
118F:→ LoveSports : 这些新闻台湾都没报 只好订外媒 重点是纽约时报每次 02/27 15:00
119F:→ LoveSports : 报导OpenAI相关新闻都会提示正在提告OpenAI侵权的事 02/27 15:00
120F:→ LoveSports : 我每一家都有用 实在不想写这些 但看来要平衡报导一 02/27 15:01
121F:→ LoveSports : 下 不然这串有两篇在骂Anthropic侵权的事 02/27 15:01
122F:→ LoveSports : 重申: 可恶的是越狱导致模型权重偏移的恶质用户 02/27 15:03
123F:→ LoveSports : 这些人害AI公司得收紧护栏,造成部分用户抱怨难用或 02/27 15:04
124F:→ LoveSports : 变笨,甚至迫使安全部门主管员工离职 02/27 15:04
125F:推 tikowm : 川:你说什麽前科? 02/27 16:06
126F:推 mamorui : 哈 没差 GPT要是诉讼出炉变难用 这些人就会後悔了 02/27 16:08