Фактчек DW: как фейковые фото из Ирана попали в мировые СМИ
23 марта 2026 г.
Распространение поддельных или подвергшихся манипуляциям фотографий и видеороликов во время войн и кризисов является частым событием - иногда с целью введения противника или общественности в заблуждение, иногда просто для привлечения внимания. Но в ходе продолжающейся войны США и Израиля против Ирана эта проблема вышла на новый уровень: сами фотоагентства выпускали обработанные или целиком фейковые изображения, которые затем попадали в редакции СМИ по всему миру.
Некоторые из этих роликов и снимков, по всей видимости, были созданы с помощью технологии искусственного интеллекта (ИИ), а часть других изменены людьми. Об одной из таких из таких историй, а также о том, как можно распознать подделки - у DW.
Скандал с контентом от SalamPix
В начале марта масс-медиа Нидерландов сообщили, что ANP (Algemeen Nederlands Persbureau), крупнейшее информагентство страны, удалило из своей базы данных около 1000 связанных с Ираном фотографий после того, как возникло подозрение, что некоторые из них были обработаны с помощью ИИ.
Двумя днями позже местное отделение медиасети RTL признало, что его новостная служба RTL Nieuws неосознанно использовала три таких изображения на своем сайте и в мобильном приложении. После того как ANP предупредило RTL о том, что фотографии были сгенерированы ИИ, RTL удалило их и опубликовало подробное объяснение, в котором указало, какие именно изображения были удалены и почему.
Вскоре после этого немецкое издание Der Spiegel написало, что также использовало в своих материалах обработанное с помощью ИИ фото, прежде чем осознало, что оно является фальшивкой. В обоих случаях снимки были предоставлены авторитетными информационными агентствами. RTL приобрело их у ANP, а Der Spiegel - у dpa Picture Alliance, ddp и Imago Images, причем все эти агентства изначально получили фото от французского агентства Abaca Press.
В конечном счете происхождение этих снимков было отслежено до источника - иранского агентства SalamPix. Именно оно, по данным Der Spiegel, и предоставило фотографии Abaca Press, откуда те попали в базы данных нескольких международных информагентств, а затем - в редакции СМИ. Новостные агентства обычно собирают медиаконтент, включая снимки со всего мира, а затем распространяют их и продают газетам, телеканалам и радиостанциям, которые, в свою очередь, используют их в своих материалах.
В ответ на появившиеся разоблачения многие фотоагентства заблокировали полученный от SalamPix контент или выпустили так называемые "уведомления об удалении", предписывающие СМИ, с которыми они работают, удалить эти фотографии из всех публикаций.
Как мировые информагентства были обмануты
В Германии существует так называемая "агентская привилегия" - правовая концепция, позволяющая масс-медиа (газетам, телеканалам) доверять и публиковать материалы от проверенных новостных агентств, не проводя полной независимой проверки их подлинности.
Медиакомпания DW также регулярно полагается на такого рода материалы при освещении событий в мире. Однако по мере того, как контент, созданный и обработанный ИИ, становится все более утонченным и массовым, отличить реальные изображения от сфабрикованных становится все сложнее.
Проблема заключается не только в технологиях, но и в нехватке времени. В условиях быстро меняющейся ситуации с последними новостями журналистам и информагентствам приходится в кратчайшие сроки просматривать огромные объемы визуальных материалов. С начала 2026 года DW ежедневно получает в среднем 140 000 изображений через агентства.
"Прозрачность - один из наших высших приоритетов. Всякий раз, когда мы используем контент, сгенерированный ИИ, он должен быть четко и однозначно идентифицируем как таковой, - объясняет главный редактор DW Матиас Штамм (Mathias Stamm). - И если мы допускаем ошибку - как в случае с использованием изображений из агентства SalamPix, - то мы признаем это, соблюдая принцип прозрачности в своей работе".
Примеры ИИ-контента, использованные и выявленные DW
После появления первых сообщений о скандале с SalamPix DW проверила свои собственные материалы и обнаружила, что также использовала контент этого агентства. После чего DW удалила все снимки SalamPix из своих публикаций и разместила исправления под каждой измененной статьей, чтобы объяснить эти изменения.
Одним из примеров является, казалось бы, вполне реалистичная уличная сцена предполагаемого ракетного удара по Тегерану: на переднем плане видны желтые автомобили (возможно, такси), на заднем - здания, за ними поднимается дым. Это фото было распространено через агентства в феврале 2026 года.
Однако при более внимательном его рассмотрении становятся заметны несколько явных ошибок, допущенных ИИ. В первую очередь, надписи на стене и на автомобиле выглядят как текст - до тех пор, пока их не рассмотреть повнимательнее. При большем увеличении становится ясно, что это не похоже ни на фарси, ни на арабский алфавит. На самом деле это вовсе не язык, а бессмысленный псевдотекст - типичная ошибка в картинках, сгенерированных искусственным интеллектом.
Также яркий пример ошибок - здания и объекты необычной формы, которые противоречат логике. В данном случае мы обнаружили окно автомобиля странной формы, а также выпуклые стены и окна дома, расположенного над желтым автомобилем в центре снимка. А если увеличить изображения автомобиля и автобус в левой нижней части фото, то можно увидеть, что они также имеют странную форму и не соответствуют никаким существующим моделям.
Еще один пример сгенерированного ИИ контента - фото мужчины в черной одежде и с оружием в руке. Подпись к нему: "Тегеран. Вооруженные сотрудники иранских сил безопасности открывают огонь с целью подавления протестов во время демонстраций 8 января 2026 года". При этом у человека, похоже, две совершенно разные ноги и туфли, а его тень (особенно правая рука над пистолетом) не соответствует реальной части тела.
Эта же рука, судя по всему, противоречит анатомическим нормам: между большим пальцем и остальными, похоже, отсутствует часть кисти.
DW также проанализировала более старые изображения, предоставленные SalamPix, и, как и Süddeutsche Zeitung, обнаружила несоответствия. Одно из фото якобы показывает столкновения иранских протестующих с силами безопасности во время антиправительственных протестов в городе Махабад в ноябре 2022 года.
На снимке видны типичные для того времени свидетельства использования ИИ: руки и особенно пальцы нескольких людей деформированы или выглядят, как будто сделаны из дерева. Окна здания слева не выровнены под одним углом, а лицо человека в крайнем правом углу изображения искажено.
Как распознать изображения, сгенерированные ИИ
По мере совершенствования технологии ИИ сфабрикованный контент все труднее отличить от реального. Это означает, что как обычные пользователи, так и профессиональные журналисты подвергаются риску быть введенными в заблуждение.
Медиакомпании, в том числе DW, вкладывают значительные средства в обучение сотрудников навыкам выявления и разоблачения манипуляций, проводимых посредством ИИ. Команда DW, занимающаяся фактчекингом, также готовит материалы по медиаграмотности, помогающие аудитории распознавать фейковые фото и видео.