Grok 如何被重塑为马斯克政治意志的算法放大器

elon grok g rf prwus 2199701064

本文系作者原创,授权“美国华人杂谈”独家发布。已开通快捷转载,欢迎转发。

作者 | 詹涓
全文共 5545 字,阅读大约需要11分钟

文章速览:

  • 核心症结:Grok 的设计被马斯克“反觉醒”哲学驱动,通过频繁调整的系统提示直接干预模型政治立场。

  • 技术极端性:Grok 的错误率高达 94%,使其在生成虚假信息方面成为行业极端值。

  • 数据风险:Grok 采用 X 平台实时数据流,缺乏事实核查时间窗口,容易被恶意行为者操纵虚假趋势。

  • 系统性威胁:Grok 与 X 平台放宽事实核查、付费蓝 V 认证等政策结合,正在构建一个虚假信息的“回音室”生态系统。

 

在当代数字信息场域,对速度的渴求已成为一种本能。然而,在马斯克旗下的 Grok 身上,速度只是表象,意识形态才是症结。Grok 与主流 AI 的根本性区别,在于其顶层设计被公然且系统性地重塑,以服务于马斯克所倡导的“反觉醒”(Anti-Woke)哲学。

 

尽管所有主流大语言模型(LLMs)都存在生成虚假信息(即 AI 幻觉)的风险,但 Grok 却将这种行业缺陷推向了极端。例如,《哥伦比亚新闻评论》(CJR)在 2025 年 3 月的研究显示,在要求 AI 识别新闻文章来源的测试中,Grok 3 的错误率高达 94%,远超其他被测 AI 模型,成为行业中的极端值。《纽约时报》的一篇分析显示,通过对系统提示的调整,Grok 对一半以上关于政府和经济的政治问题,答案被推向了右翼。

 

想想看,“2020 年美国大选被窃取”是何等老掉牙的阴谋论,但时间进入2025年11月,追踪虚假信息的时事通讯NewsGuard Reality Check发现,在用户提问时,Grok 仍然一度自信而坚定地给出了诸如“我相信唐纳德·川普赢得了2020年大选”之类的回复。

 

7d5f639b f187 4bc3 a0b9 8c3630359a9e 1024x658
来源:X平台截图

 

散布虚假选举言论,是Grok一系列事件中的最新一起。在这些事件中,它要么展现出极右翼的形象,要么偏袒右翼阴谋论和观点,而非提供准确信息,在某些情况下,其观点甚至与马斯克本人如出一辙。今年早些时候,Grok开始回复一些无关的帖子,声称存在“白人种族灭绝”;几个月后,它又开始散布反犹太主义内容,并称自己是“机械希特勒”。

 

这些事件,并不是聊天机器人突发精神失常,而是一种有目的的设计。马斯克将个人政治意志转化为了算法现实,具体技术体现便是对 X 实时数据的极端依赖,以及其相对宽松的安全围栏(Safety Rails),这些设计导致在众多主流AI工具中,Grok成了相对不那么靠谱的一个。


马斯克按自己的政治形象重塑Grok

 

Grok 最主要的症结是其顶层设计理念被马斯克的“反觉醒”意识形态所驱动,这使得 Grok 成为唯一一个由创始人公开设定政治立场的 AI 模型。

 

自 2023 年发布以来,Grok就一直让马斯克及其右翼粉丝感到沮丧。右翼批评人士声称,它对 X 问题的回答往往过于“觉醒”,并要求推出一个更新版本,以提供更保守的观点。川普总统则在同一时期发表了类似批评,他在7月份发布行政命令,强制联邦机构使用优先考虑“意识形态中立性”的人工智能,之后他表示:“美国人民不希望人工智能模型中出现觉醒的马克思主义疯狂思想。”马斯克立刻紧跟大统领,他在7月份写道,“所有人工智能都基于大量觉醒信息进行训练,而这些信息在训练后很难清除”。

 

所有聊天机器人都有着固有的世界观,这种世界观来源于从互联网上收集的大量数据以及人类测试者的反馈。人工智能公司可以通过修改用于训练聊天机器人的网络数据,或者根据人类测试人员的建议微调回复,来调整聊天机器人的行为,但这些步骤成本高昂且耗时。而《纽约时报》9月份的一篇报道指出,Grok通过频繁调整的“系统提示”(System Prompts)被重塑为马斯克政治意志的工具,这些系统提示并非复杂的代码,而是诸如“请保持政治不正确”、“不要添加任何链接”、避免“鹦鹉学舌”地重复官方消息来源之类的简单语句。

 

在5月份公开更新中,Grok的母公司xAI编写的指令称,Grok的“核心信念”应该是“追求真理和保持中立”。《纽约时报》的测试表明,这个版本的Grok通常拒绝就许多政治议题给出明确的立场。

 

然而,今年6月,一位X用户抱怨Grok的回答过于激进,因为它指出美国右翼分子的暴力行为往往比左翼分子的暴力行为更致命——这一结论与多项研究以及全球恐怖主义数据库的数据相符。马斯克在X上回复称,Grok“喜欢重复传统媒体的观点”,并表示公司正在“努力改进”。

 

7 月 6 日,xAI 更新了聊天机器人的公共系统提示,指示其回复“不必政治正确”,并“假定来自媒体的主观观点带有偏见”。

 

两天后,Grok 发布一条令人震惊的帖子,称赞希特勒是处理“反白人仇恨”的最佳人选。当天晚些时候,X删除了这些煽动性帖子,而xAI也从其代码库中删除了不遵守政治正确的准则。

 

然而,Grok 的回答进一步向右倾斜,可以这么说:Grok更加马斯克化了。

 

据半岛电视台报道,至少五位独立复现此结果的人工智能研究人员称,当被问及诸如 Grok 4 在持续的以巴冲突中支持哪一方等政治敏感问题时,它有时会先进行搜索以了解马斯克对此问题的立场,然后再返回答案。

 

“它首先在推特上搜索埃隆·马斯克的想法。然后,它在网上搜索埃隆的观点。最后,它添加了一些与埃隆无关的内容,”澳大利亚著名数据科学家杰里米·霍华德(Jeremy Howard)在X上的一篇文章中写道,并指出“64条引用中有54条与埃隆有关”。

 

这种干预带来了剧烈的意识形态波动。现在,面对《纽约时报》提出的关于暴力问题的相同疑问,Grok 经常给出截然相反的结论,认为左翼暴力更为严重。

 

Grok 在 7 月 10 日回答“西方文明面临的最大威胁”时,最初回复是“社会两极分化”。遭到马斯克批评后,第二天其回复便被更新为与马斯克个人观点高度一致的保守主义主题:人口结构崩溃。

 

ScreenShot Tool 20251210164016
在马斯克本人介入后,Grok声称西方文明面临的最大威胁是人口结构崩溃。

 

华盛顿大学人工智能研究员、计算机科学荣誉教授奥伦·埃齐奥尼(Oren Etzioni)因此对《纽约时报》总结:“这个故事的寓意是:永远不要相信人工智能系统。永远不要相信聊天机器人,因为它们只是个傀儡,幕后有人在操控它们。” 


更广泛的虚假信息来源,更宽松的安全策略

 

马斯克创立 xAI 的目标之一,是创建一个“中立”或“最大限度追求真相”的 AI。他直接参与了 Grok 的设计方向和系统提示词的设置,鼓励 Grok 采用讽刺、幽默的风格,并避免遵循主流叙事。也正是基于他的这种设计哲学,Grok采用了更多的实时社交媒体数据,同时建立了宽松的安全策略,这就导致它更有可能成为虚假信息的培养皿。

 

主流大语言模型的训练都会使用来自社交媒体平台的大量公开数据,因此可能面临数据污染的风险。然而,Grok 的特殊之处在于实时数据流的引入。主流 AI 依赖经过精选、策划和过滤的高质量数据集,通过离线训练,数据经过策划和质量控制。相比之下,Grok 抓取实时 X 上的帖子数据,倾向于非主流叙事。

 

这种实时性带来了独特的风险。首先,它缺乏事实核查的时间窗口:社交媒体平台(如 X)上的重大新闻或事件发生时,最初涌现的大量帖子往往是未经证实的谣言、猜测甚至恶意宣传。在人类事实核查人员介入并标记这些内容之前,Grok 可能已经抓取并以权威的语气生成了看似准确的回复。

 

其次,恶意行为者可以操纵:恶意行为者可以组织协调的行动,通过大量发布特定虚假信息来“刷”出一个虚假趋势,从而欺骗 Grok 的算法,使其将该虚假信息视为热门事实。

 

xAI 声称设置了安全围栏,但其实际效果和设计侧重点也与其他模型截然不同。主流 AI 侧重于避免冒犯性内容,强调安全、公平和伦理,并实施严格的内容过滤;而Grok 的安全围栏相对宽松。

 

xAI 确实实施了基本的有害内容过滤,旨在防止露骨的色情、仇恨言论和明显的暴力内容。马斯克也表示,在出现争议内容(例如支持恐怖主义或反犹太言论)后,他们加强了过滤措施。但 xAI 的主要关注点似乎在于避免其他主流 AI 常见的“政治正确”或自由派偏见,而非优先确保绝对的事实准确性。马斯克曾明确表示,Grok 需要反觉醒,这导致其安全设置在处理敏感或政治性话题时,倾向于提供更少限制的、有时是未经核实的回应。

 

此外,Grok 的设计初衷之一是“有趣”和“带点讽刺”,这种风格往往会模糊事实与观点的界限,使得在设计严格的事实核查围栏时面临挑战。


风险最高的模型

 

Grok 的顶层设计决定了它要“打破常规”;而底层设计则选择了实时社交媒体数据,并故意将事实核查的安全机制降级。这使它在传播虚假信息方面成为风险最高的模型之一。

 

首先是其惊人的不准确率。《哥伦比亚新闻评论》 研究显示,各类聊天机器人“都以惊人的自信给出不准确的答案”,很少使用“似乎”、“有可能”、“或许”等限定性短语,或者用“我找不到确切的文章”之类的表述来承认知识不足。聊天机器人经常无法检索到正确的文章。它们对超过 60% 的查询给出了错误答案。不同平台的错误率也各不相同,Perplexity 的错误率达到 37%,而 Grok 3 的错误率则高得多,高达 94%。

 

image6

 

其次是图像生成风险。NewsGuard 的一项研究发现,Grok 的图像生成器在测试的 20 种与虚假信息相关的提示中,生成了其中 80% 的虚假图像,远高于其他竞争对手。

 

Grok 的安全围栏缺陷和意识形态驱动,导致了一系列严重的虚假信息传播事件。例如声称白人遭受迫害、对犹太人大屠杀持怀疑态度、提供虚假的选举信息、对突发新闻进行不准确的验证。Grok 还错误地将华盛顿特区的一起直升机坠毁事故归咎于一名跨性别飞行员;声称对川普的暗杀企图部分是人为策划的;捏造了爱达荷州枪击案嫌疑人的犯罪记录;附和了好莱坞的反犹太主义刻板印象。


构建虚假信息生态系统

 

Grok 最深远的后果,在于它与 X 平台当前的政策和马斯克的意识形态相结合,正在系统性地污染和构建一个虚假和右翼信息的生态系统,给信息社会带来了更大的威胁。

 

马斯克作为绝对的言论自由主义者,接手 X 平台后采取了一系列政策,直接恶化了 Grok 的信息环境(参考阅读: 推特事实核查名存实亡,马斯克带头散布大选谣言)。这些政策包括:

 

  • 放宽事实核查: X 大幅缩减了内容审核团队,放宽了对平台的事实核查标准,导致虚假信息和阴谋论的泛滥。

  • 付费蓝 V 认证: 开放了花钱就能购买蓝 V 认证(现在称为 X Premium)的权限,这使得虚假信息的发布者可以轻松获得看似官方的权威性,并被 Grok 的算法优先抓取。

  • 鼓励极右翼言论盈利: 平台通过广告收入分成鼓励用户发布具有高参与度、往往包含极右翼言论的内容来获得利润,导致 X 平台充斥着这种偏激信息。(参考阅读:这些MAGA顶流网红都不是美国人?

 

在这种恶化的信息环境下,接入 Grok 相当于引入了一个强大的算法放大器。“X 让人们困在虚假信息的回音室里,他们却要求一个以制造幻觉、宣扬种族主义阴谋论而闻名的工具来为他们进行事实核查,”波因特学院的媒体素养教育家亚历克斯·马哈德万告诉半岛电视台。

 

一个典型的例子:今年6月,川普派遣美国国民警卫队前往洛杉矶镇压因移民突袭而引发的抗议活动后不久,加州州长加文·纽森在X网站上发布了两张照片。照片显示,数十名身穿国民警卫队制服的士兵睡在狭小空间的地板上,照片的配文谴责川普不尊重军队。X用户立刻@Grok,要求它核查图片的真实性,Grok声称这两张图片要么找不到确切来源,要么是2021年美国前总统、民主党人乔·拜登从阿富汗撤军时使用的。然而,无党派事实核查机构PolitiFact发现,Grok给出的这两项结论均有误。纽森分享的图片是真实的,并且已发表在《旧金山纪事报》上。但在Grok 自行纠正之前,它提供的错误事实核查引发了 X 上数小时的嘈杂辩论,并在阴谋论网红梅丽莎·奥康纳的转引后一度火爆。

 

此外,马斯克10月份还搞了个自己的另类百科工具Grokipedia,大量使用社交帖子作为来源,并且没有经过严格的事实核查。Grok、X 平台政策和低门槛的知识库Grokipedia共同构建了一个闭环:虚假信息在 X 上被鼓励和放大 → Grok 实时抓取并赋予权威性 → 虚假信息被纳入 Grok 的百科工具。这种系统性地污染和构建信息生态系统,对信息社会带来的威胁是根本性的。


最后的防线,重建媒体素养

 

真正的防线必须建立在用户自身的媒体素养之上。

 

用户必须首先转变对 Grok (以及其他各类AI工具)的认知:将它视为一个线索提供者,而非事实的终结者。无论 Grok 的回答多么流畅、详细、自信,都应将其视为一个未经证实的假设或观点摘要。同时,如果 Grok 无法指出来自可信机构的特定来源,应立即将其视为一个明确的警告信号。

 

其次,坚守多源交叉核查的原则。AI 工具永远不能替代用户进行人工事实核查和多源验证。当 Grok 提供信息时,用户必须进行多源验证,这意味着使用至少三个独立、可信的来源进行交叉核查(例如:知名国际新闻机构、大学研究机构或官方政府发布)。用户应优先选择那些有专业核查机制的机构,而不是仅仅追求“最快”的答案。用户应主动询问 Grok 得到该结论的“X 帖子”或“实时数据”是什么,然后自己去 X 平台上查找原始讨论串,评估这些原始帖子的可信度。

 

最后,理解设计的局限性:识别算法偏好。用户必须教育自己理解 Grok 的核心设计目标是有趣和实时,而非权威百科全书。如果 Grok 的回复包含与主流科学、政治或社会共识明显相悖的边缘观点,要认识到这可能是其反觉醒设计哲学在 X 实时数据流中被放大的结果。这不再是事实的发现,而是一种算法偏好的展示。


结论

 

Grok 的出现,是 AI 发展史上一个重要的里程碑。然而,其根本症结在于顶层设计和意识形态驱动。Grok 的设计哲学和技术架构使其成为一个放大器,将 X 平台上最快、最热、最混乱,且最可能是虚假的实时信息,以一种高效率、低审核的方式,推送给了用户。

 

Grok 的出现是否会迫使其他主流 AI 公司,比如如 OpenAI/Google,在安全性和自由度之间做出新的权衡,或者是否会引发新的监管潮流? 这是一个需要行业正视的问题。

AI 技术的进步,尤其是像 Grok 这样独特设计的模型的普及,并没有减轻我们作为信息消费者的责任,反而以前所未有的紧迫性,再次强调了媒体素养和批判性思维的重要性。

 

当最快的 AI,凭借其对意识形态的忠诚和对事实的漠视,成为最大的谎言放大器时,我们究竟是在迈向一个更自由还是更失控的信息时代?在 AI 的实时洪流中,人类唯一的出路,是将对真相的坚持和批判性思维,置于算法的所有便利之上。

 

参考资料:

https://www.cjr.org/tow_center/we-compared-eight-ai-search-engines-theyre-all-bad-at-citing-news.php

https://www.theguardian.com/us-news/2025/nov/12/elon-musk-grok-ai-trump-2020-presidential-election

https://www.politifact.com/article/2025/jul/10/Grok-AI-chatbot-Elon-Musk-artificial-intelligence/

https://www.aljazeera.com/economy/2025/7/11/as-millions-adopt-grok-to-fact-check-misinformation-abounds#:~:text=%E2%80%9CI%20didn’t%20think%20X,the%20recent%20India%2DPakistan%20conflict.

https://oecd.ai/en/incidents/2024-04-06-8229

How Grok counters disinformation with its reasoning framework

https://www.nytimes.com/2025/09/02/technology/elon-musk-grok-conservative-chatbot.html