1. 跳转至内容
  2. 跳转至主菜单
  3. 跳转到更多DW网站

事实核查:如何识别有关以哈战争的AI图像?

Ines Eisele | Uta Steinwehr
2023年11月11日

真的还是假的?人工智能生成的图像已成为以哈战争中的造谣工具。德国之声事实核查团队向您解释如何识别它们。

https://p.dw.com/p/4YhMV
这三幅有关加沙冲突的图片都是由人工智能生成的。
这三幅有关加沙冲突的图片都是由人工智能生成的。

(德国之声中文网)用人工智能(AI)制造的假新闻是如何运作的?它们呈现了怎样的叙事方式?它们有多危险?在这篇文章中,德国之声事实核查人员将回答有关人工智能图像在以哈冲突中所扮演角色的几个关键问题。

1)人工智能工具是如何制造假图像的?

如今,人工智能无处不在,在战争中更是难以避免。人工智能应用在今年有了很大的改进,现在几乎任何人都可以使用标准的人工智能生成器来生成图像,这些图像至少第一眼看上去是真实的。

要做到这一点,用户只需要向Midjourney或Dall-E等人工智能工具输入提示,包括规格和信息。然后,这些工具会将文字提示转换成图像。

这些工具既能生成更具艺术性的插图,也能生成逼真的“照片”。生成过程基于所谓的机器学习。

例如,如果要求人工智能生成器制作一位70岁的老人骑着自行车的图像,它们就会搜索数据库,将提示语与图像配对。

根据现有的信息,人工智能生成器就会生成老年骑车人的图像。得益于越来越多的信息输入和技术更新,这些工具已经有了很大改进,并在不断地学习。

所有这些技术都适用于与中东冲突有关的图像。

假新闻?!AI造!

根据我们的观察,这些假场景往往是为了通过捕捉情感瞬间来传播某些宣传叙事。关于这一点,我们稍后再谈。

人工智能专家法里德(Hany Farid)说,在“情绪强烈高涨”的冲突中,包括通过人工智能图像传播的虚假信息,异常有效。

法里德是美国加州大学伯克利分校研究数码鉴别学的教授。他告诉德国之声,冲突前线是制造和传播虚假内容、激化情绪的完美温床。

2)有多少有关以哈战争的人工智能图像在流传?

人工智能辅助制作的图像和视频已经增加了与乌克兰战争有关的虚假信息——而且还在继续增加。

自2022年俄罗斯入侵乌克兰以来,人工智能工具发展迅速,许多观察家早前预计它将在以哈战争中扮演更重要的角色。然而,据专家称,人工智能图像并没有汹涌而来。

欧洲数字媒体观察站的专家卡内塔(Tomasso Canetta)说:“在以哈冲突及其相关的虚假信息中,我们并没有看到人工智能生成图像的大规模使用。”

他说:“目前实际上是用旧图片和旧视频传播的虚假信息数量较大,相比之下,人工智能生成的图片有一些,但不是很多。”

如何识别以哈冲突中的假新闻?

不过,这并不意味着技术不是一个造假手段。法里德解释说,他认为人工智能造假的数量并不是关键因素。

“你可以只制造两张虚假图片,但如果它们在网上疯传,上亿人都会看到。这就会产生巨大的影响。”他说,“因此,这不一定是一场数量游戏,我认为真正问题是信息生态系统的污染。”

3)人工智能图像在以哈战争中扮演了什么角色?

在社交媒体网络上流传的人工智能图像通常会引发强烈的情绪。

卡内塔认为这些虚假图像主要有两类:一类关注平民苦难并引起人们同情,另一类宣传爱国情绪,夸大人们对以色列、哈马斯或巴勒斯坦人的支持。

这是一幅人工智能生成的图像。红框里的提示表明其伪造的明显特征。
这是一幅人工智能生成的图像。红框里的提示表明其伪造的明显特征。


例如,上图中一位父亲和他的五个孩子在一堆废墟前的照片就属于第一类。在以色列轰炸加沙地带时,这张图片在X(前Twitter)和Instagram上被多次分享,观看量达到数十万次。

好在至少在X上,这张图片被标注为假造。可以通过人工智能图像中典型的各种错误和不协调来识别它。

例如,男子的右肩高得不成比例。从下面伸出的两条腿也很奇怪——好像是从他的毛衣里长出来的一样。

同样让人觉得奇怪的是,两个男孩搂着父亲脖子的手是如何交叠在一起的?此外,画面中还有几只手和脚,手指和脚趾不是过多就是过少。

这也是一幅人工智能生成的图像。红框里的提示表明其伪造的明显特征。
这也是一幅人工智能生成的图像。红框里的提示表明其伪造的明显特征。

上面这张在X上疯传的人工智能假图也有类似的异常现象,图片显示一个巴勒斯坦大家庭在一片废墟中一起进餐。

下面这张图片显示,士兵们挥舞着以色列国旗,走过一个满是被炸毁房屋的定居点。这属于第二类,旨在激发爱国主义情感。

在Instagram和X上分享这张图片的账户似乎主要是亲以色列的,并对所描述的事件表示欢迎。德国之声还在保加利亚的一家在线媒体上发现,这张图片被用作文章配图,但并未标注其为人工智能生成。

这是一幅人工智能生成的图片,显示以色列坦克和士兵举着国旗在被轰炸后的加沙街道上行进。
这是一幅人工智能生成的图片,显示以色列坦克和士兵举着国旗在被轰炸后的加沙街道上行进。图像来源: X

这张图片上看起来最假的地方是以色列国旗飘荡的方式。中间的街道也显得过于干净,而瓦砾看起来则非常均匀。被摧毁的建筑看起来也像双胞胎,以相当规律的间隔矗立着。

总之,视觉印象过于“整洁”,显得不真实。这种完美无瑕让图像看起来像是画出来的,这也是人工智能图像的典型特征。

4)此类人工智能图像来自何处?

大多数人工智能生成的图片都由社交媒体上的个人账户发布。这些账户的个人信息既有真实的,也有明显虚假的。

不过,人工智能生成的图片也可用于新闻产品。目前,许多媒体公司正在讨论这是否可行,在哪些情况下能用或者有效。

软件公司Adobe于2022年底在其图片库中加入了人工智能生成的图片,这引起了轩然大波。这些图片在数据库中都有相应的标注。

Adobe图片库中提供的一张关于加沙冲突的人工智能生成图像
Adobe图片库中提供的一张关于加沙冲突的人工智能生成图像

批评者认为这种做法很有问题,但一些在线网站和媒体仍在使用这些图片,而且没有标注人工智能生成。例如,上面这张图片出现在“Newsbreak”网站上,但没有任何相关标注。德国之声通过反向图片搜索发现了这一点。

就连欧洲议会的科学服务机构——欧洲议会研究服务处也在一篇关于中东冲突的在线文章中使用了Adobe数据库中的一张假图,同样没有标明这是一张人工智能生成的图片。

欧洲数字媒体观察站的专家卡内塔呼吁记者和媒体专业人士在使用人工智能图像时要非常慎重,最好不要使用人工智能图像,尤其是在涉及加沙战争等真实事件时。

如果是为了说明未来技术发展,相关文章则可能适合使用人工智能生成的配图。

5)人工智能图像可能造成多大损害?

传播人工智能生成的内容会让读者对他们在网上遇到的一切感到不安全。

加州大学伯克利分校研究学者法里德解释说:“如果我们进入了这个可以操纵图像、音频和视频的世界,那么一切都会受到质疑。因此,你会看到真实的东西也会被说成是假的。”

下面的案例正是如此:以色列总理内塔尼亚胡和美国保守派评论员夏皮罗(Ben Shapiro)等人在X上分享了一张据称显示被烧焦的以色列婴儿尸体的图片。

随后,备受争议的反以色列网红欣克尔(Jackson Hinkle)声称,这张图片是用人工智能制作的。

网红欣克尔的X帖文截图,他称内塔尼亚胡和夏皮罗转发的图片是假的。
网红欣克尔的X帖文截图,他称内塔尼亚胡和夏皮罗转发的图片是假的。


作为所谓的证据,欣克尔在帖文中附上了来自人工智能检测器“AI or not”的截图,该检测器将该图片归类为人工智能生成。

欣克尔在X上的这一指控被浏览了2000多万次,并引发了激烈讨论。

最后,许多人表示,这张图片很可能是真实的,而欣克尔说法是错误的。法里德告诉德国之声,他在图片中找不到任何不协调的地方,无法证明其为人工智能假造。

你可能会问,这怎么可能呢?人工智能检测器的确可以用来检测图片或文字是否可能是人工智能生成的,但它仍然非常容易出错。根据所检测图像的不同,它们的判断有对有错,而且往往只能做出可能的判断,而不是百分之百的确定。

因此,它们最适合作为检查人工智能假图的辅助工具,但绝对不是唯一的工具。

德国之声用人工智能检测器“AI or not”检测同一张图片,得到的回答是“很可能是人类”。
德国之声用人工智能检测器“AI or not”检测同一张图片,得到的回答是“很可能是人类”。

德国之声的事实核查团队也未能在这张可能显示婴儿尸体的图片中发现任何明显的人工智能制作痕迹。

奇怪的是,当我们用人工智能检测器“AI or not”亲自检测时,它并没有把这张图片归类为人工智能生成的图片,而且还指出图片质量很差。

另一个人工智能检测器——Hive moderation也认为该图片是真实的。
 

©2023年德国之声版权声明:本文所有内容受到著作权法保护,如无德国之声特别授权,不得擅自使用。任何不当行为都将导致追偿,并受到刑事追究。