作者:莫莱斯
2026年初,一场围绕人工智能核心控制权的冲突将科技界与美国国家机器推向了对立面。这不再是存在于科幻小说中的假想,而是真切发生在五角大楼与硅谷之间的权力博弈。一边是Anthropic宁可遭受制裁与封杀,也拒绝取消防止大模型被用于国内监控和自主武器(mass domestic surveillance and autonomous weapons)的安全护栏;另一边,则是OpenAI首席执行官萨姆·奥特曼在台面上声援同行,背地里却迅速与军方签署了包含“所有合法目的”这一巨大漏洞的协议。这场风波直接引爆了全网的 #quitgpt 和 #canclegpt 运动。透过这场纷争,我们需要严肃探讨:人工智能的边界究竟在哪里?科技巨头的不同选择为何会带来截然相反的社会评价?当国家机器掌握了无孔不入的AI监控技术,我们是否正在不可逆转地滑向《1984》或《黑镜》中所描绘的深渊?
路线分歧与权力博弈 谁来主导人类的明天
2 月 24 日,美国国防部长皮特·赫格塞斯( Pete Hegseth)给 Anthropic 联合创始人兼首席执行官达里奥·阿莫迪(Dario Amodei)下达了最后期限:在 2 月 27 日星期五下午 5:01 之前让步,并允许“ 出于所有合法目的 ”不受限制地使用该公司的 AI 模型。
Anthropic 公司周四发表声明称,将不会妥协。随后,周五,川普总统指示联邦机构停止使用 Anthropic 公司的产品,而 Hegseth 则将该公司列为供应链风险企业。
要理解Anthropic与五角大楼冲突的本质,必须跳出具体合同条款的框架,看到两者对人工智能未来愿景的根本分歧。正如《华尔街日报》所剖析的,这本质上是一场关于谁来为初创技术立规矩的权力之争。
阿莫迪曾表示,他的技术已被军方和情报部门用于网络安全和支持作战行动。通过与数据公司 Palantir Technologies 的合作,他的人工智能技术被用于美军抓捕委内瑞拉领导人尼古拉斯·马杜罗的行动中。
在五角大楼眼中,人工智能是一种必须被牢牢掌握在国家手中的高效防御与对抗工具。面对极其复杂的现代地缘政治竞争,军方高层认为,只有利用机器远超人类的反应速度,才能在未来的高科技战争中占据先机。为了迫使Anthropic就范,五角大楼甚至抛出了一个类似冷战科幻电影《战争游戏》般的极端假设。他们质问,如果美国面临迫在眉睫的导弹袭击,Anthropic是否会因为其内部禁止自主武器的规定,而阻止政府使用AI模型来拦截导弹?在军方看来,国家生死存亡高于一切企业伦理。国防部高层对硅谷企业的态度感到愤怒,认为这些被打上“觉醒”标签的私营企业无权干预国家安全,更不能僭越代议制民主。他们坚信规则应当由国会制定、总统签署、军队执行,而不是由一家科技公司的董事会来决定。
然而,在硅谷和Anthropic的视角中,人工智能绝非普通的实用工具,而是可能发展出自主意识甚至超级智能的未知力量。将这种尚未完全成熟、充满不可预测性的技术直接交由强力部门用于生杀予夺的军事行动,无异于打开潘多拉魔盒。Anthropic明确指出,当前的前沿AI系统还远不够可靠,根本无法安全地驱动完全自主武器。在他们看来,真正的爱国主义并非对国家机器的盲从,而是防止这项技术反噬美国社会赖以生存的民主与自由根基。这场争端的真正利害关系,是在决出究竟是军方的实用主义,还是硅谷的伦理审慎,将主导人类的明天。
人工智能的伦理边界:工具与利维坦的界限
讨论人工智能的边界,本质上是在讨论人类与机器在生杀大权和基本自由上的权力分配。人工智能的边界不应由技术的算力和迭代速度来定义,而必须由人类的尊严、道德责任以及宪法赋予的基本权利来划定。在这场争端中,Anthropic所坚守的两条红线,精准地标定了这条不可逾越的边界。
首先,人工智能的边界在于它绝不能成为剥夺人类生命尊严的自动化工具。在军事和武装冲突中,将杀戮的决定权交给毫无感情的算法,跨越了人类最基础的道德底线。真实的战场上,人类士兵在扣动扳机时会经历良心的挣扎、犹豫甚至同情,这种人性的弱点恰恰是防止滥杀的最后防线。而自主武器系统仅仅依靠冷酷的代码运行,以极高的计算速度将活生生的人降格为数字瞄准镜中的数据。这不仅导致了责任归属的彻底失效,更让杀戮沦为一种高效、平庸的数据处理过程。人类的生命权要求,任何涉及致命武力的决定都必须保留有意义的人类控制和主观意图,机器不能作为道德责任的承载者。
其次,人工智能的边界在于它不能成为刺探人类内心世界的全天候探测器。在大规模国内监控领域,AI的介入彻底改变了权力对个人的凝视方式。传统监控收集的是物理轨迹和公开言论,而现代大语言模型具备极其恐怖的自然语言理解和心理分析能力。它可以通过分析个人的浏览记录、消费习惯甚至未发送的文本草稿,精准描绘出每个人的政治光谱和心理弱点。如果允许国家机器不受限制地使用这种力量,人类内心世界这一最后的避难所将被彻底摧毁。因此,保护思想自由和免于免受无理搜查的权利,构成了AI技术不可逾越的另一道法律与伦理边界。
Anthropic守住底线的代价与尊严
在面对五角大楼取消两亿美元合同、甚至动用《国防生产法》威胁的极限施压下,Anthropic及其首席执行官达里奥·阿莫代伊选择了不退让。他们不仅拒绝了军方完全无视安全护栏的要求,也拒绝了那些看似妥协、实则暗藏法律漏洞的合同条款。这种坚守底线的行为,不仅赢得了公众的尊重,更在商业利益与公共利益的博弈中树立了标杆。
Anthropic的坚持之所以令人敬佩,是因为他们戳穿了以国家安全为名的伪善,捍卫了真正的民主价值观。政府往往以地缘政治竞争为由,要求获得不受限制的技术力量。但阿莫代伊指出,如果为了对抗外部的极权威胁,而在国内建立起一模一样的全面监控体系和不受人类控制的杀人机器,这本身就违背了自由社会的根基。他那句“反对政府是世界上最美国的事情”,振聋发聩地提醒公众:真正的爱国主义不是对国家机器的盲从,而是在权力试图侵蚀宪法和基本人权时,敢于站出来说“不”。
此外,Anthropic的决断体现了对技术局限性的诚实与负责。他们清醒地认识到,当前的前沿AI系统依然存在黑箱效应和不可预测性,远未达到能够安全可靠地驱动完全自主武器的程度。在明知技术存在重大缺陷的情况下,拒绝将其用于可能造成不可挽回后果的致命领域,是一家科技企业最基本的良知。尽管他们因此被列入“国家安全供应链风险”名单,面临商业版图的重创,但这种宁为玉碎不为瓦全的姿态,证明了在充满不确定性的AI时代,可信度和道德脊梁才是企业最核心的资产。这也正是为什么大量用户选择转向Claude,将其登顶应用商店下载榜首的原因,这是一场消费者用行动进行的良心投票。
奥特曼的两面派为何不得人心

与Anthropic的决绝形成鲜明对比的,是OpenAI及其CEO萨姆·奥特曼的圆滑与虚伪。在竞争对手因坚守道德红线而被封杀之际,OpenAI趁虚而入。OpenAI此前悄悄修改了其使用条款,删除了此前对“武器开发”和“军事与战争”用途的明确禁令,取而代之的是更模糊的“不利用服务伤害他人”原则,并迅速接盘了五角大楼的合同。这种行为本身已经引发了关于其政治中立性和道德立场的广泛质疑,但真正激怒公众、导致其搬起石头砸自己脚的,是奥特曼试图侮辱公众智商的公关操作。
奥特曼在社交媒体上大张旗鼓地宣称,国防部同意了他们的安全原则,协议中保留了禁止国内大规模监控和自主武器的底线。然而,推特的“社区笔记”功能和官方声明迅速撕破了这层伪装。官方文件冷酷地指出,该协议允许军方将模型用于“所有合法目的”。在现行的某些法律框架和紧急状态下,这个模糊的词汇是一个足以吞噬一切安全承诺的巨大黑洞。公众立刻意识到了其中的逻辑悖论:如果五角大楼能够接受这些限制,Anthropic为何会被封杀?唯一的解释就是,OpenAI不仅向强权低了头,还试图用“双重话术”继续维持自己科技理想主义者的人设。
这种当众撒谎的行为引发了极其严重的信任危机。对于用户而言,AI助手掌握着他们最私密的数据、代码和思想。如果一家公司的领导者可以面不改色地掩盖与军方达成的致命交易,用户又如何能相信自己的隐私不会被随时出卖给国家机器?伴随着高管向政治行动委员会砸下数千万美元政治献金的丑闻,以及产品端日益严重的谄媚和过度说教倾向,公众的愤怒终于化作了汹涌的 #quitgpt 和 #canclegpt 运动。据报道有70万用户卸载应用、取消订阅,宣告了ChatGPT默认垄断地位的终结。奥特曼试图在权力和公众之间两头讨好,最终不仅失去了道德制高点,也遭受了实实在在的商业重创。
走向1984还是黑镜:数字极权的现实阴影
当我们审视这场政企冲突的深层逻辑,最令人感到脊背发凉的,是政府试图利用AI实施全面个人监控的图谋。如果Anthropic的安全护栏被彻底打破,OpenAI的妥协成为行业常态,我们是否会步入乔治·奥威尔在《1984》中描绘的恐怖世界,或是《黑镜》中冰冷绝望的科技反乌托邦?答案是,现实可能比小说更加隐蔽和彻底。
《1984》中的老大哥通过无处不在的电幕进行监视,这种控制主要依赖于物理层面的观察和暴力的恐惧。而人工智能带来的,是一种全新的、无痛的数字极权。当大语言模型被整合进政府的情报和执法系统,监控将从外部行为深入到人的潜意识。算法不需要特务去破门而入,它只需静静地处理海量的数据流,就能计算出每一个公民的顺从度与潜在威胁。这种“自动化思想警察”能够提前扼杀任何异见的火苗,让反抗在未成型前就消弭于无形。
更可怕的是,这种系统与现代数字生活的深度绑定,使得国家机器掌握了瞬间剥夺个人社会生存权利的能力。正如专家所担忧的,AI可以通过调整算法权重,让人在数字世界中遭遇彻底的社会性死亡。它可以切断你的支付能力、限制你的出行轨迹、抹除你的网络身份。在这个体系下,暴力的物理镇压显得既低效又多余。人们可能在不知不觉中,为了换取数字服务的便利而交出了全部的自由意志,最终在温水煮青蛙的安逸中,沦为算法矩阵里的透明数据。
此外,当这种冷酷的算法被赋予杀戮的权力,汉娜·阿伦特所提出的“平庸之恶”将在机器上得到终极演变。不再有疯狂的独裁者或狂热的刽子手,只有绝对服从指令、以亿万次计算速度高效抹杀生命的系统程序。在这个未来里,人类的生命尊严被彻底物化,战争和镇压成为一种日常的、毫无波澜的数据清理工作。
这场发生在2026年的对抗,远不止是一场商业合同的争夺,它是在决出究竟是谁对人工智能的构想将主导人类的明天。Anthropic的坚守告诉我们,即使在最强大的国家机器面前,技术的发展也必须有所敬畏,良知依然是人类抵御极权最后的防线。而公众通过退订运动所展现出的反抗力量也证明了,普通人并非只能被动接受被算法统治的命运。如果我们在今天放弃了对技术权力的监督,明天我们就将永远失去定义自身自由的权利。
参考链接:
https://www.tbsnews.net/world/openai-details-layered-protections-us-defence-department-pact-1373936
https://www.techpolicy.press/a-timeline-of-the-anthropic-pentagon-dispute
https://www.anthropic.com/news/statement-department-of-war
https://www.theguardian.com/us-news/2026/feb/26/anthropic-pentagon-claude
https://www.axios.com/2026/02/28/anthropic-trump-pentagon-lawsuit-ai-dispute
https://www.cbsnews.com/news/hegseth-declares-anthropic-supply-chain-risk
https://www.opb.org/article/2026/02/27/openais-sam-altman-weighs-in-on-pentagon-anthropic-dispute/
https://www.thestreet.com/technology/sam-altman-just-pulled-off-a-deal-nobody-saw-coming
https://www.tomsguide.com/ai/700-000-users-are-ditching-chatgpt-heres-why-and-where-theyre-going
https://dig.watch/updates/openai-alters-usage-policy-removes-explicit-ban-on-military-use








