Anthropic是如何被五角大楼盯上的?
原创 · 林天心  |  2026年03月12日 1小时之前
 
林天心
初级编辑

在很长一段时间里,Anthropic 都是人工智能热潮中那个没什么存在感的名字。尽管它的估值一度冲到 3500 亿美元上下,却很少像 OpenAI 或者马斯克的 xAI 那样,动不动就登上头条,或者被公众拎出来批评一番。

它的 CEO 达里奥·阿莫代伊在行业内算是个熟面孔,但放在硅谷之外,几乎没人知道他是谁。至于那个叫 Claude 的聊天机器人,热度也始终被 ChatGPT 压着一头。

但过去这一周,这种印象被彻底戳破了。

Anthropic 突然成了那个站在聚光灯下、跟美国国防部正面硬刚的角色。起因是它拒绝让 Claude 参与两个项目:一个是国内的大规模监控,另一个是不需要人类干预就能自主杀人的武器系统。五角大楼为此设下了最后期限,要求它妥协,但 Anthropic 没有接这个茬。结果就是国防部长赫格塞斯直接翻脸,公开骂它“傲慢”“背叛国家”,还放话所有跟政府合作的公司都不得再跟它往来。

接下来的一周,事情愈演愈烈。OpenAI 那边宣布自己跟国防部谈成了协议,结果内部员工反弹,阿莫代伊也没忍住,在社交平台上怼奥特曼是在给特朗普“搞独裁者式吹捧”,但没隔几天又道了歉。特朗普本人也没闲着,接受采访时直接说“我像打发狗子一样开了他们”。到了周四,五角大楼正式把 Anthropic 列进“供应链风险”名单——这是美国公司头一回被扣上这顶帽子,如果严格执行,后果将是财务上的重创。

这场冲突之所以闹得这么大,说到底是因为它戳中了那个一直悬而未决的问题:AI 到底该怎么用在战争里?谁又来为它的后果负责?随着美军加速把这套技术塞进作战系统,甚至已经在跟伊朗的冲突里投入使用,那些原本只存在于伦理课教案里的假想场景,现在正变成科技公司不得不面对的日常考题。

而对 Anthropic 来说,这场对峙更像是一次迟来的价值清算。这家公司当初就是冲着“AI 安全”这个旗号成立的。达里奥·阿莫代伊 2021 年带着妹妹和几个前 OpenAI 同事出走创业,就是看不惯奥特曼的集权,也担心技术跑得太快刹不住车。他们说要给 AI 定一套“宪法”,要打造真正安全的系统。阿莫代伊还写过一篇挺有名的长文,叫《慈爱之器》,在里面畅想过 AI 消除癌症、搞定传染病、缩小贫富差距的未来。但关于 AI 能不能推动民主、维护和平,他倒没那么乐观。

不过,理想归理想,Anthropic 走的商业路线其实跟同行没什么两样。它主攻的是企业级市场,把 Claude 做成那种能嵌入公司后台、适配机密系统的东西。2024 年,它跟硅谷那家做大数据起家的 Palantir 签了协议,让 Claude 进入了对方的机密环境。第二年,又和几家公司一起,跟五角大楼签了一份价值 2 亿美元的合同。问题是,合同签了,边界没划清楚。军方通过 Palantir 的渠道用 Claude,Anthropic 根本没法全程盯着。等到政府要求进一步放宽限制,想让 AI 介入更多军事场景,冲突就再也压不住了。

据说美军已经在用嵌了 Claude 的 Maven 系统,来帮自己判断伊朗境内哪些地方值得炸。换句话说,一个原本被设计用来帮助企业解决问题的工具,正在变成战场上的助攻。伦理学者玛格丽特·米切尔的评论挺直接:问题不在于 Anhtropic 想不想杀人,而在于它想让谁杀对人——而谁算“对的人”,现在由军方说了算。

这就是所谓“双重黑箱”的困境。科技公司不知道自己的技术进了机密系统之后会被怎么用,军方也不见得搞懂这些专有模型到底怎么运作。合同写得再细,落到实际操作里也难免走样。更何况眼下这届政府对法律程序的耐心本来就不多。

有意思的是,这场硬刚反而让 Anthropic 的民意分涨了一波。Claude 的知名度在交易破裂之后不降反升,倒是忙着切割的 OpenAI,最近正忙着给自己补口碑。但更长远的账还不好算。一些国防承包商和政府部门已经开始撤出对 Anthropic 模型的使用。阿莫代伊据说最近又跟五角大楼重新接触,想再谈一谈,能不能找个折中的出口。

说到底,在国会迟迟没有明确立法的空窗期里,一家私营公司该不该、能不能替社会决定 AI 的战争用途?当“安全第一”的承诺撞上军方的实战需求,边界在哪,谁来划?这些问题没有现成的答案。而 Anthropic 这一周的遭遇,不过是把问号摆到了台面上而已。