
AI 没有变成“新的 Linux”,反而越来越像“新的曼哈顿计划”。
如果你经常使用 AI,大概率听过 Claude。
Claude 背后的公司,叫 Anthropic。
它是目前全球最核心的 frontier AI 公司之一,也是 OpenAI 最大竞争对手之一。
昨天(5.14),Anthropic 发布了一篇引发巨大讨论的文章:
《2028: Two Scenarios for Global AI Leadership》
很多人第一眼看,会以为这是篇 AI 行业分析。
但认真读完后你会发现:
它其实更像一份写给华盛顿的战略备忘录。
文章核心观点可以浓缩成一句话:
AI 的决定性资源是算力,美国必须通过芯片出口管制、限制模型扩散、加强盟友体系,确保中国在未来几年无法追平。
这已经不是普通科技公司的口吻了。
它更像:
- 国家安全报告
- 冷战时期技术战略文件
- AI时代的“遏制战略”
而这也让很多人第一次真正意识到:
AI 行业,正在从互联网逻辑,进入地缘政治逻辑。
这篇文章真正透露了什么?
第一层:AI竞争的核心已经不是“聊天机器人”
Anthropic 认为:
- AI竞争核心不是算法,而是算力
- 高端 GPU、先进制程、数据中心才是真正的战略资源
- 一旦 AI 进入“自动化科研 / 自动化网络攻击 / 自动化武器系统”阶段,领先 12~24 个月都可能形成巨大国家优势
这一点其实并不离谱。
因为未来 AI 真正可怕的地方,从来都不是“会聊天”。
而是:
- 自动发现漏洞
- 自动写 exploit
- 自动化情报分析
- 自动化科研
- 无人系统协同
- 生物工程辅助设计
Anthropic 实际上是在把 AI 描述成:
“新的核武 + 新的工业革命 + 新的互联网基础设施”
而不是一个 AI 助手。
第二层:它已经开始主动参与美国国家战略叙事
文章里反复强调:
- 中国通过蒸馏追赶
- 中国绕过芯片限制
- 美国必须扩大出口管制
- 民主国家必须保持 AI 领先
这些措辞已经明显不是“行业观察”。
而是:
站在美国国家安全视角写给政策圈看的内容。
所以很多人读完会有一种感觉:
Anthropic 已经不像一家普通 AI 公司。
反而越来越像:
- 国家安全智库
- 军工技术机构
- 冷战时期战略实验室
Anthropic 到底是一家什么样的公司?
很多人对 Anthropic 的第一印象是:
“做 Claude 的 AI 公司”。
但实际上,它的气质和 OpenAI、Google、xAI 都不太一样。
OpenAI 更像超级创业公司。
xAI 更像马斯克个人意志的延伸。
Google DeepMind 更像科研帝国。
而 Anthropic 很特别。
它有一种非常强烈的:
- 精英技术官僚气质
- 长期主义
- 安全主义
- 文明治理感
它不像互联网公司。
更像:
- Bell Labs
- RAND
- 冷战智库
- 曼哈顿计划式实验室
Anthropic 创始团队很多都来自 OpenAI。
而且当初分裂的重要原因之一,就是对 OpenAI 商业化方向的不满。
他们真正担心的是:
“AI能力增长速度,可能已经超过人类社会治理速度。”
所以 Anthropic 从诞生开始,就带着很强的 AI safety 色彩。
但它也是目前最矛盾的 AI 公司之一
这是最有意思的地方。
Anthropic 一边强调:
- AI风险巨大
- AGI可能失控
- 社会没有准备好
- AI竞争过于危险
另一边:
- 它自己也在疯狂训练更强模型
- 也在卷推理能力
- 也在卷 agent
- 也在融资
- 也在争夺市场
于是很多人会觉得:
“你一边警告火灾,一边自己在加油。”
这种批评其实并不奇怪。
因为 Anthropic 身上有一种非常强的“内在张力”。
它既想成为:
- AI安全守门人
同时又必须成为:
- AI竞赛参与者。
真正引发争议的,其实是“民主AI”叙事
文章中有一种非常明显的框架:
- 民主 AI vs 威权 AI
- 美国领导 vs 中国追赶
但问题在于:
很多人并不认为:
“美国AI公司控制 AI” 等于 “AI更民主”。
于是网上出现了一条非常尖锐的评论:
“最搞笑的是,你把问题塑造成民主 vs CCP、美国 vs 中国,但现实其实是 open source vs YOU。”
“如果你真的在乎民主,你就应该开源模型。”
“你根本不在乎民主,你只是利用民族主义叙事为自己谋利。”
这些评论为什么被大量点赞?
因为它击中了 Anthropic 这类 frontier lab 最大的矛盾。
AI世界,正在变成两条路线的冲突
第一条路线:封闭模型路线
代表:
- OpenAI
- Anthropic
核心逻辑:
- 超强模型太危险
- 必须监管
- 必须控制
- 必须审计
- 不应该人人拥有
于是最终形成:
- 模型闭源
- API化
- 云服务化
- 权限集中化
本质上是:
“AI 应该由少数可信机构托管。”
这是非常典型的技术官僚思维。
Anthropic 尤其明显。
第二条路线:开源路线
代表:
- DeepSeek
- Meta
- Mistral
核心逻辑:
- AI 不该被少数公司垄断
- 开源才能制衡权力
- 真正的民主是“人人可获得”
于是形成:
- 权重公开
- 本地运行
- 自由微调
- 社区协作
本质上是:
“AI 应该像 Linux 一样扩散。”
所以很多人开始认为:
AI真正的冲突, 不是美国 vs 中国, 而是开放 vs 集中。
为什么 Anthropic “对中国的敌意很重”?
它文章里关于中国的描述,带有非常明显的地缘政治色彩:
- 蒸馏
- 芯片绕过
- 威权AI
- 安全风险
- 民主联盟
它并不是在“中立分析 AI 竞争”。
而更像是在强调:
“美国必须保持技术压制。”
这种叙事,自然会让很多人觉得:
Anthropic 并不只是担心 AI 风险。
它同样在利用:
- 国家安全
- 民主价值
- 中国竞争
来强化自身的政治合法性和商业护城河。
而且它确实有现实商业利益
这一点其实非常关键。
因为如果 AI 被定义成:
- 国家级战略资源
- 超级危险技术
- 必须严格监管
- 必须限制扩散
那么谁最受益?
恰恰是:
- 已经拥有超大模型的大公司
- 已经拥有巨额算力的公司
- 已经获得资本支持的 frontier lab
因为监管很多时候意味着:
- 提高门槛
- 强化集中
- 限制后来者
- 巩固既得利益
所以很多开源派才会认为:
“AI safety 某种程度上,正在变成既得利益者的竞争工具。”
这种批评,并不是完全没有道理。
但事情也没那么简单
因为 Anthropic 内部大概率也确实相信:
- frontier AI 很危险
- AI可能军事化
- AI网络攻击未来会升级
- AGI可能改变国家力量平衡
问题在于:
“真实风险” 和 “商业利益” 是可以同时存在的。
他们未必是“纯粹虚伪”。
更可能是:
他们真相信风险, 但也真在利用风险构建自己的护城河与权力。
而这恰恰才是今天这些大型科技公司最真实的状态。








