僵持数月后,Anthropic与美国国防部的谈判正式破裂。国防部长皮特·赫格塞斯宣布将Anthropic列为"供应链风险",这是美国首次对本国AI公司采取如此严厉的制裁措施。
谈判破裂的焦点
Anthropic与国防部的分歧集中在两个核心问题:
- 大规模本土监控 — 国防部要求将Claude用于美国公民的大规模监控
- 完全自主武器 — 国防部要求允许AI模型控制致命武器系统
Anthropic明确拒绝这两项要求,认为它们"违反基本权利"和"危及美国军人及平民"。
史无前例的"供应链风险"标签
国防部长赫格塞斯在社交媒体上宣布,已指示国防部将Anthropic列为供应链风险。这一标签此前仅用于美国对手,从未公开应用于任何美国公司。
" designation would be an unprecedented action—one historically reserved for US adversaries, never before publicly applied to an American company."
Anthropic在声明中表示:"我们不会因为任何威胁或惩罚而改变对大规模监控或完全自主武器的立场。我们将在法庭上挑战任何供应链风险指定。"
Anthropic的底线与底气
Anthropic的立场基于两个核心判断:
- 技术可靠性 — 当今的前沿AI模型还不够可靠,不适合用于完全自主武器
- 道德底线 — 大规模本土监控违反基本权利
值得注意的是,Anthropic自2024年6月起就开始支持美国政府的情报和军事行动,是首个在美国政府机密网络中部署模型的前沿AI公司。
对客户的影响
Anthropic明确表示:
- 个人用户和商业合同客户完全不受影响
- 仅国防部承包商在使用Claude处理国防部合同时受影响
- 国防部长没有法律权力将此限制扩展到其他客户
行业启示
Anthropic与国防部的对峙揭示了AI行业面临的根本性困境:当技术能力足够强大时,政府必然试图将其用于各种目的。而AI公司如何在商业利益与道德底线之间找到平衡,将成为长期挑战。
开源社区或许将从中受益。当闭源AI公司被迫在"合作"与"对抗"之间选择时,开源模型可能成为那些希望保持独立性的用户的替代方案。