俄乌战争中的人工智能和虚假信息,另:谣言指揭露莫德纳文章作者突然离世

本文系作者原创,授权“正义补丁”独家首发。转载需征求许可,规范署名(公号名/ID/作者),违者必究

 

作者:Moreless
字数:5100
预计阅读时间:12分钟


前言:乌克兰战争无疑是当下的热点话题,许多人每天都在密切关注着战争的走向,而获取相关信息的平台早已不局限于传统的主流媒体频道,而越来越多的转向各类社交媒体平台。但是就像我们一直以来所强调的,社交媒体平台上的信息经常难以核实,利用人工智能和其它方式飞快传播假信息并改变叙事的事件已经数不胜数。

 

俄乌战争已经开战整整一个月,除了在真实战场上的较量以外,在虚拟世界中也同样在进行着战争。

 

从TikTok上流传的虚假视频,到人工智能生成的虚假人物,直到deepfake(一种依赖人工智能深度造假的算法),俄乌之间的战争在现实世界和虚拟世界都在同时上演。

 

关于乌克兰的假消息以及Deepfake

 

在一个印有乌克兰国徽的讲台后面,总统弗拉基米尔·泽连斯基穿着他现在具有标志性的绿色服装,呼吁他的士兵放下武器,回到自己家人身边。

 

这段1分钟的短片是一个深度造假(deepfake),deepfake是用来描述复杂骗局的一个术语,它指的是使用人工智能来创造一个虚假的形象,最常见的就是制造一个假人的视频。

 

在视频中,泽伦斯基的嘴唇似乎在动,但仔细看时,在整个1分钟的片段中,头部都处于静止状态,他的下颚线也不明确。乌克兰观众还指出,泽伦斯基的口音不对,他的声音看起来并不真实。

 

 

泽伦斯基本人3月16日在他的Instagram账户上发布了一个回应,驳斥了这种 “幼稚的挑衅”,并告诉俄罗斯军队返回家园。他对这一深度伪造(deepfake)的回应收到了500多万次浏览,该假视频的出处仍然不明,质量也不高。

 

在他的声明中,泽伦斯基说。”如果我可以提议某些人放下武器,那就是俄罗斯军队。回家吧。因为我们已经在家了。我们正在保卫我们的土地,我们的孩子和我们的家园。”

 

社交媒体平台随后也采取了行动。脸书和Instagram的所有者Meta表示,在深度伪造的视频出现在一个据称被黑的乌克兰新闻网站上并开始在互联网上传播后,Meta已经从其服务中删除了该视频,并向其他平台发出通知。推特说,它正在 “积极”跟踪该视频,如果该视频没有人评论,或者没人认为它是真实的,它将会被删除。

 

专注于技术的人权组织Witness的项目主管萨姆·格雷戈里(Sam Gregory)说,乌克兰的反应表明,泽连斯基的团队制定了有效的策略来应对这类虚假信息。他说:”乌克兰人已经警告过这样的视频”,他指的是预先反驳谣言的行为。“视频本身质量很差,人凭眼耳都能看出是伪造的。然后社交媒体上关于deepfake的主题,能够通过自己的社交媒体渠道向信任他的观众进行快速实时反驳。”

 

一位专家表示,俄罗斯,乌克兰及其盟友之间的信息战的概念需要在全球背景下看待。

 

“乌克兰正在做一项非凡的工作。美国智库大西洋理事会(Atlantic Council)数字法证研究实验室的执行主编安迪·卡文(Andy Carvin)说:“这是为了确保世界了解局势的严重性,以及他们正在为世界上其他民主国家进行的斗争。他说,俄罗斯已经 “摇摆不定”,包括 “发布来源可疑的视频”。

 

黑客们也声称在阻止俄罗斯政府的国内叙事方面取得了成功,RT新闻服务是分布式拒绝服务攻击DDoS的目标网站之一,这些攻击使得网站无法访问。监测网络威胁的Recorded Future称,自俄侵乌战争开始以来,DDoS攻击的数量 “不成比例地针对俄罗斯”。

 

但卡文警告说,不要只从这场信息战中得出积极的结论。“西方人很容易认为,他们在这方面很糟糕,乌克兰在网上和公共话语中赢得了争论。但是,如果你逐个地区观察,甚至在某些国家内部,你会看到非常不同的说法在传播。”


卡文提到了俄罗斯,在那里,Facebook和Instagram被屏蔽,访问Twitter受到严格限制,TikTok上的所有西方内容都被禁止,不同意见也被完全压制。”他说:“从普京的角度来看,在国内,他可能对目前的状况相当满意。

 

在国际上,RT和另一家国有新闻机构Sputnik已经在英国和欧盟被Facebook和Instagram删除,RT在英国的广播许可证也在3月18号被撤销。

 

但卡文指出,RT和Sputnik正在南美 “蓬勃发展”,并指出最近的一项研究显示,在社交媒体平台微博上的帖子中,50%以上是支持俄罗斯的论点,即战争是西方国家、北约或乌克兰的错。他说,在撒哈拉以南非洲等地,讲好俄罗斯的故事也很成功。”他说:“从各个地区来看,它不一定像我们通过镜头看到的那么美好。”

 

信息战的其他方面对俄罗斯来说更难对付,这要归功于开放源码情报,或称OSINT。OSINT指的是可公开获取的信息,从手机录像到商业卫星公司Maxar提供的图像,然后由调查性新闻网站Bellingcat等组织审查。

 

苏塞克斯大学工程与信息学院的研究员贾斯汀·克罗(Justin Crow)说:“OSINT在围绕乌克兰政治和军事冲突的信息领域发挥着变革性作用。”它正在帮助为高层战略决策提供信息,并让公众了解情况。或许最重要的是,这有助于防止俄罗斯主导这场战争的叙事。”

 

对于一些俄罗斯人来说,日益减少的信息选择并没有阻止他们去寻找真相。莫斯科29岁的顾问米哈伊尔说,对社交媒体和独立媒体的禁令不会影响他消费新闻的方式。

 

米哈伊尔说:”我早早的就看到了这一点,对于当局的行动方向,这是预料之中的。”他在去年年底获得了一个VPN,可以访问所在国家被封锁的网站。“获得关于入侵的真实信息对我来说非常重要。我不想成为观看国家电视的僵尸”。

 

哈佛大学的研究员的个人经历

 

3月10日,哈佛大学的研究员Aleksandra Przegalinska打开她的Facebook账户,在她的新闻线上看到的第一条是一个俄罗斯喷子的帖子,他传播虚假信息,赞扬俄罗斯总统普京。

 

该帖子声称普京在俄乌战争中做得很好。

 

作为一个关注俄罗斯和乌克兰之间冲突的人,这位人工智能专家和波兰大学的管理者被她认为是一个不准确的帖子所吓的。

 

虽然她意识到这个帖子是由她的Facebook好友的好友创建的,并不是她直接认识的人,但Przegalinska说,这表明搜索引擎正在优先处理有可能产生冲突和有争议的信息。


“推荐系统仍然非常粗糙”,哈佛大学的研究员和马萨诸塞州大巴灵顿的美国经济研究所的访问学者Przegalinska说,“如果他们看到我对一场冲突和乌克兰感兴趣 — 当你分析我社交媒体上的内容时,这一点很明显 — 他们就可以尝试分析和推广与此相关的内容。”

 

推荐算法、虚假信息和TikTok

 

最近,推荐算法导致了社交媒体上关于俄乌战争的虚假信息的广泛传播。

 

特别是在TikTok上,虚假信息和错误信息泛滥成灾。一些用户 — 想要走红、赚钱或传播普京的议程 — 将战争视频与旧的音频混合在一起,制造关于正在发生的事情的虚假信息。

 

虽然一些关于战争的帖子提供了关于正在发生的真实情况,但其他许多帖子似乎是无法核实的。

 

一个视频通过借用另一个视频的音频来传播不实消息,图源:insider.com


例如,战争期间的许多TikTok视频包括一个音频片段,显示一支俄罗斯军事部队告诉蛇岛(乌克兰海岸外的一个小岛)上的13名乌克兰士兵要投降。其中一些视频称这些人被杀。而TikTok视频将乌克兰士兵错误地归为死亡。

 

推荐算法导致错误信息在TikTok上传播,例如这个视频说士兵被杀。

 

士兵被杀的消息最初由乌克兰总统弗拉基米尔·泽伦斯基确认,但俄罗斯官方媒体显示这些士兵作为战俘抵达克里米亚。乌克兰官员后来证实,这些士兵还活着,但被俘虏了。

 

TikTok也已成为俄罗斯宣传普京入侵乌克兰计划的一个平台。尽管该平台最近暂停了所有来自俄罗斯的直播和新内容,但它是在支持战争的影响者的视频已经流传了几天之后才这样做的。

 

俄罗斯TikTok用户恰恰使用相同的词语,重复了俄罗斯关于乌克兰人在讲俄语的分离主义顿涅茨克和卢甘斯克地区对其他乌克兰人实施 “种族灭绝 “的虚假说法。这些帖子谴责乌克兰杀害无辜儿童,但没有证据支持这一虚假指控。

 

3月6日,TikTok暂停了来自俄罗斯的视频,此前普京签署了一项法律,对发布国家认为的有关俄罗斯军队的 “假新闻 “的人实行最高15年的监禁。

 

虚假信息、人工智能和战争

 

Forrester分析师Mike Gualtieri说,交战中的双方在战争中散布虚假信息并不新鲜。然而,使用人工智能和训练机器学习模型成为虚假信息的来源是新手段。

 

Gualtieri继续说:”机器学习在学习如何利用人类心理方面特别出色,因为互联网提供了一个庞大而快速的反馈回路,以学习什么会加强或打破目标人群的信念”。

 

由于这些机器学习能力是社交媒体的基础,政府实体和私人公民也可以利用这些平台来试图影响大众的意见。

 

Gualtieri说,像Google BERT and OpenAI’s GPT-3(第三代Generative Pre-trained Transformer)这样的transformer神经网络也是新的。它们可以被用来生成信息,将人类完全从这一过程中剥离出来。

 

“现在你有一个人工智能引擎,它可以生成消息,并立即测试消息是否有效,”他继续说。“每天快速发送1000次,你就有了一个能够快速学习如何改变目标人群的人工智能。这很吓人。”

 

似乎更可怕的是,社交媒体用户要建立这类人工智能引擎和机器学习模型已经变得多么容易。

 

深度造假和虚假信息的传播

 

战争期间流传的一种机器学习模型由人工智能生成的人类或deepfake组成。

 

推特和脸书撤下了两个自称来自乌克兰的人工智能生成的人的假资料。一个是来自基辅的博主,他表面上叫弗拉基米尔·邦达连科,传播反乌克兰的言论。另一个是位于哈尔科夫的伊琳娜-克里莫娃,据说是一名教师,后来成为 《今日乌克兰》的主编。

 

除非人们非常仔细地检查这两个人,否则几乎不可能看出他们不是真的。这支持了《美国国家科学院院刊》最近一份报告的结论,即人工智能合成的脸很难与真实的脸区分开来,甚至看起来更可信。

 

生成式对抗网络有助于创造这种人工智能生成的图像和深度造假。两个神经网络(一个生成器和一个鉴别器)一起工作来创造虚构的图像。

 

Przegalinska说,创造深度造假过去很复杂,需要复杂的技能。而现在很容易。

她说,“目前令人担忧的是,许多深度造假deepfake不需要编程知识就可以创建,现在可以用来创建深度造假的工具在网上很容易就能找到。

 

Przegalinska说,同样令人担忧的是,对于如何利用神经网络来创建深度造假的实践,例如描绘泽伦斯基投降的视频,几乎没有什么限制。“我们真的不知道在这场特定的冲突或战争中使用深度造假的规模会有多大,但我们知道的是,我们已经有了一些记录在案的合成人物的案例。


由于俄罗斯已经禁止了许多社交媒体平台,包括Facebook和Twitter,该国许多公民只能看俄罗斯国家电视台放的节目。Przegalinska说,在俄罗斯国家电视台上利用深度伪造技术来描述普京的议题,即俄罗斯是乌克兰的救世主,将是很容易的。

 

对社交媒体的消费者来说,密切关注新闻很重要,因为很难知道什么是真的,什么是假的。

 

“这可能有一种危言耸听的意味,‘听着,你必须仔细看你看到的东西,因为它可能会假造的’。”

 

Przegalinska说:“俄罗斯非常擅长虚假信息战。尽管他们使用的工具也许非常巧妙,但它们确实是一种武器。”

 

与此同时,西方在虚假信息战中没有做好准备,此刻有两场战争正在进行,她说。

 

“这是一场发生在物理世界和虚拟世界的平行战争,显然,物理战争是最重要的,因为在那个世界有人正在死去,包括儿童。然而,就其影响力而言,信息战也同样重要。”

 

谣言指揭露莫德纳制造病毒文章作者之一离奇死亡

 

 

近日又有谣言说,写了揭露莫德纳制造病毒文章的作者之一突遭车祸去世。为阴谋论又增加了几分离奇。

 

前文《无稽之谈:新冠病毒是美国莫德纳公司刻意制造?》已经说过,发表在“病毒前沿”网站上的同行预审文章,该网站门槛很低,几乎是来者不拒,而且只有一个审稿人,不符合常规的论文审核规范。而且这个文章结果实在很民科,19个碱基对序列,在BLAST里面随便一搜,就会搜到几十个匹配结果,只是跟莫德纳申请的专利正好碰上了而已。

 

 

该文有七名作者,分别来自不同的国家和地区。文章第一作者Bala Ambati,是俄勒冈大学的一个眼科医生,其网站介绍写“他作为白内障、角膜和屈光手术医生执业17年。曾在佐治亚州医学院担任过五年的角膜主任,现在犹他大学担任角膜研究主任”。他是眼科方面的专家,并没有基因研究的专业背景,所以文章的结论来自于业余研究。第二作者也是个眼科医生。文章作者中并没有路易斯维尔这名女士Sarahbeth Hartlage。

 

 

至于前面提到的”出车祸”发生不幸的这位路易斯维尔名叫SarahBeth Hartlage的女士,是当地一名负责疫苗注射的卫生官员,其生前极力主张打疫苗。不大可能参与反疫苗文章的撰写。

 

现年36岁的Hartlage于2020年9月加入路易斯维尔卫生局。她很快成为肯塔基州会览中心LouVax站点的代言人,该站点在2021年的几个月里是该市的疫苗分发中心。

 

从前面文章作者截图可以看出,Hartlage与该篇与莫德纳有关的论文没有任何关系,并不在其作者名单上。其跟每日邮报和每日曝光的文章也没有任何关联。

 

 

而且官方只是说她突然离世,并没有公布死因,也没有说死于车祸。所以说揭露莫德纳文章作者车祸离世,是彻头彻尾的谎言。

 

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注