1. Перейти к содержанию
  2. Перейти к главному меню
  3. К другим проектам DW

Фактчек DW: как фейковые фото из Ирана попали в мировые СМИ

Рэйчел Бэйг | Бьорн Китцман
23 марта 2026 г.

Созданный с помощью ИИ контент о войне США и Израиля против Ирана ввел в заблуждение мировые СМИ, в том числе DW. Это показывает, как легко фейковые снимки и видео проникают в редакции новостных агентств.

https://p.dw.com/p/5AvIN
Фото от агентства SalamPix, созданное с помощью ИИ
После того как журналисты заподозрили, что несколько снимков, предоставленных агентством SalamPix, были созданы с помощью ИИ, медиакомпании провели проверку своих материаловФото: Salampix

Распространение поддельных или подвергшихся манипуляциям фотографий и видеороликов во время войн и кризисов является частым событием - иногда с целью введения противника или общественности в заблуждение, иногда просто для привлечения внимания. Но в ходе продолжающейся войны США и Израиля против Ирана эта проблема вышла на новый уровень: сами фотоагентства выпускали обработанные или целиком фейковые изображения, которые затем попадали в редакции СМИ по всему миру.

Некоторые из этих роликов и снимков, по всей видимости, были созданы с помощью технологии искусственного интеллекта (ИИ), а часть других изменены людьми. Об одной из таких из таких историй, а также о том, как можно распознать подделки - у DW.

Скандал с контентом от SalamPix

В начале марта масс-медиа Нидерландов сообщили, что ANP (Algemeen Nederlands Persbureau), крупнейшее информагентство страны, удалило из своей базы данных около 1000 связанных с Ираном фотографий после того, как возникло подозрение, что некоторые из них были обработаны с помощью ИИ.

Двумя днями позже местное отделение медиасети RTL признало, что его новостная служба RTL Nieuws неосознанно использовала три таких изображения на своем сайте и в мобильном приложении. После того как ANP предупредило RTL о том, что фотографии были сгенерированы ИИ, RTL удалило их и опубликовало подробное объяснение, в котором указало, какие именно изображения были удалены и почему.

Одно из сгенерированных ИИ фото - Али Хаменеи на фоне девочек
Когда телеканалу RTL сообщили, что использованные им фото были созданы с помощью ИИ, он удалил их и опубликовал разъяснения на сей счетФото: rtl

Вскоре после этого немецкое издание Der Spiegel написало, что также использовало в своих материалах обработанное с помощью ИИ фото, прежде чем осознало, что оно является фальшивкой. В обоих случаях снимки были предоставлены авторитетными информационными агентствами. RTL приобрело их у ANP, а Der Spiegel - у dpa Picture Alliance, ddp и Imago Images, причем все эти агентства изначально получили фото от французского агентства Abaca Press.

В конечном счете происхождение этих снимков было отслежено до источника - иранского агентства SalamPix. Именно оно, по данным Der Spiegel, и предоставило фотографии Abaca Press, откуда те попали в базы данных нескольких международных информагентств, а затем - в редакции СМИ. Новостные агентства обычно собирают медиаконтент, включая снимки со всего мира, а затем распространяют их и продают газетам, телеканалам и радиостанциям, которые, в свою очередь, используют их в своих материалах.

В ответ на появившиеся разоблачения многие фотоагентства заблокировали полученный от SalamPix контент или выпустили так называемые "уведомления об удалении", предписывающие СМИ, с которыми они работают, удалить эти фотографии из всех публикаций.

Как мировые информагентства были обмануты

В Германии существует так называемая "агентская привилегия" - правовая концепция, позволяющая масс-медиа (газетам, телеканалам) доверять и публиковать материалы от проверенных новостных агентств, не проводя полной независимой проверки их подлинности.

Медиакомпания DW также регулярно полагается на такого рода материалы при освещении событий в мире. Однако по мере того, как контент, созданный и обработанный ИИ, становится все более утонченным и массовым, отличить реальные изображения от сфабрикованных становится все сложнее.

Главный редактор DW Матиас Штамм
Матиас ШтаммФото: Stephanie Englert/DW

Проблема заключается не только в технологиях, но и в нехватке времени. В условиях быстро меняющейся ситуации с последними новостями журналистам и информагентствам приходится в кратчайшие сроки просматривать огромные объемы визуальных материалов. С начала 2026 года DW ежедневно получает в среднем 140 000 изображений через агентства.

"Прозрачность - один из наших высших приоритетов. Всякий раз, когда мы используем контент, сгенерированный ИИ, он должен быть четко и однозначно идентифицируем как таковой, - объясняет главный редактор DW Матиас Штамм (Mathias Stamm). - И если мы допускаем ошибку - как в случае с использованием изображений из агентства SalamPix, - то мы признаем это, соблюдая принцип прозрачности в своей работе".

Примеры ИИ-контента, использованные и выявленные DW

После появления первых сообщений о скандале с SalamPix DW проверила свои собственные материалы и обнаружила, что также использовала контент этого агентства. После чего DW удалила все снимки SalamPix из своих публикаций и разместила исправления под каждой измененной статьей, чтобы объяснить эти изменения.

Это фото, сделанное в феврале и якобы запечатлевшее последствия ракетного удара по Тегерану, на самом деле создано с помощью ИИ
Это фото, сделанное в феврале и якобы запечатлевшее последствия ракетного удара по Тегерану, на самом деле создано с помощью ИИФото: SalamPix/ABACA

Одним из примеров является, казалось бы, вполне реалистичная уличная сцена предполагаемого ракетного удара по Тегерану: на переднем плане видны желтые автомобили (возможно, такси), на заднем - здания, за ними поднимается дым. Это фото было распространено через агентства в феврале 2026 года.

Однако при более внимательном его рассмотрении становятся заметны несколько явных ошибок, допущенных ИИ. В первую очередь, надписи на стене и на автомобиле выглядят как текст - до тех пор, пока их не рассмотреть повнимательнее. При большем увеличении становится ясно, что это не похоже ни на фарси, ни на арабский алфавит. На самом деле это вовсе не язык, а бессмысленный псевдотекст - типичная ошибка в картинках, сгенерированных искусственным интеллектом.

При увеличении становится очевидно, что текст представляет собой бессмысленный набор символов - фейковое фото
При увеличении становится очевидно, что текст представляет собой бессмысленный набор символовФото: SalamPix/ABACA

Также яркий пример ошибок - здания и объекты необычной формы, которые противоречат логике. В данном случае мы обнаружили окно автомобиля странной формы, а также выпуклые стены и окна дома, расположенного над желтым автомобилем в центре снимка. А если увеличить изображения автомобиля и автобус в левой нижней части фото, то можно увидеть, что они также имеют странную форму и не соответствуют никаким существующим моделям.

Еще одна типичная ошибка ИИ - обычно ровные поверхности, такие как стены и окна, выглядят выпуклыми, как показано здесь
Еще одна типичная ошибка ИИ - обычно ровные поверхности, такие как стены и окна, выглядят выпуклыми, как показано здесьФото: SalamPix/ABACA

Еще один пример сгенерированного ИИ контента - фото мужчины в черной одежде и с оружием в руке. Подпись к нему: "Тегеран. Вооруженные сотрудники иранских сил безопасности открывают огонь с целью подавления протестов во время демонстраций 8 января 2026 года". При этом у человека, похоже, две совершенно разные ноги и туфли, а его тень (особенно правая рука над пистолетом) не соответствует реальной части тела.

Еще одно изображение, появившееся в Сети в январе и якобы запечатлевшее стрельбу иранских силовиков по демонстрантам, было распространено агентством SalamPix. Как выяснилось, оно также было создано с помощью ИИ
Еще одно изображение, появившееся в Сети в январе и якобы запечатлевшее стрельбу иранских силовиков по демонстрантам, было распространено агентством SalamPix. Как выяснилось, оно также было создано с помощью ИИФото: SalamPix/ABACA

Эта же рука, судя по всему, противоречит анатомическим нормам: между большим пальцем и остальными, похоже, отсутствует часть кисти.

При более внимательном взгляде на правую руку видны ошибки в анатомическом строении кисти
При более внимательном взгляде на правую руку видны ошибки в анатомическом строении кистиФото: SalamPix/ABACA

DW также проанализировала более старые изображения, предоставленные SalamPix, и, как и Süddeutsche Zeitung, обнаружила несоответствия. Одно из фото якобы показывает столкновения иранских протестующих с силами безопасности во время антиправительственных протестов в городе Махабад в ноябре 2022 года.

На снимке видны типичные для того времени свидетельства использования ИИ: руки и особенно пальцы нескольких людей деформированы или выглядят, как будто сделаны из дерева. Окна здания слева не выровнены под одним углом, а лицо человека в крайнем правом углу изображения искажено.

Как распознать изображения, сгенерированные ИИ

По мере совершенствования технологии ИИ сфабрикованный контент все труднее отличить от реального. Это означает, что как обычные пользователи, так и профессиональные журналисты подвергаются риску быть введенными в заблуждение.

Медиакомпании, в том числе DW, вкладывают значительные средства в обучение сотрудников навыкам выявления и разоблачения манипуляций, проводимых посредством ИИ. Команда DW, занимающаяся фактчекингом, также готовит материалы по медиаграмотности, помогающие аудитории распознавать фейковые фото и видео.

Пропустить раздел Еще по теме

Еще по теме

Показать еще