1. Перейти до змісту
  2. Перейти до головного меню
  3. Перейти до інших проєктів DW

Фейки від ШІ про війну Ізраїлю з ХАМАС: як розпізнати?

Інес Айзеле
12 листопада 2023 р.

Оригінал чи підробка? Війна у Секторі Гази супроводжується хвилею фейків. Один з інструментів дезінформації - зображення, створені штучним інтелектом. DW на прикладах пояснює як їх виявити.

https://p.dw.com/p/4YiTC
Подібні зображення може за допомогою штучного інтелекту (ШІ) зробити будь-який більш-менш грамотний користувач
Подібні зображення може за допомогою штучного інтелекту (ШІ) зробити будь-який більш-менш грамотний користувач

Штучний інтелект (ШІ) тепер усюди - і на війні теж. Останніми роками можливості його застосування значно розширились. Практично будь-яка людина вже може використовувати ШІ для створення зображень, які видаються реальними - принаймні, на перший погляд.

Війна Ізраїлю проти угруповання ХАМАС, визнаного ЄС, США, Німеччиною та більшістю країн Заходу терористичною організацією, спалахнула саме під час нинішнього стрибка у розвитку ШІ. У палестино-ізраїльському конфлікті, "де градус емоцій дуже і дуже високий", вказує професор цифрової криміналістики в Університеті Берклі в Каліфорнії Хані Фарід, дезінформація, зокрема зображення, створені ШІ, працює особливо ефективно. Жорстке протистояння сторін - ідеальне живильне середовище для виробництва та поширення фальшивого контенту та нагнітання емоцій, констатує Фарід.

Як працюють ШІ-фальшивки, які наративи вони демонструють і наскільки небезпечні - DW на конкретних прикладах відповідає на найважливіші питання щодо ролі штучного інтелекту у палестино-ізраїльському конфлікті.

Чи багато циркулює зображень, створених ШІ?

Фото та відеоролики, створені за допомогою штучного інтелекту, вже робили свій внесок у дезінформацію під час війни в Україні - і продовжують це робити і зараз. Оскільки інструменти ШІ останнім часом розвиваються стрімко, багато оглядачів очікували, що у війні між Ізраїлем та ХАМАС ця технологія застосовуватиметься ще більш активо. Однак, на думку експертів, великого потоку зображень, створених ШІ, поки що не спостерігається.

Ми не бачимо масового використання таких зображень, констатує Томмазо Канетта із Європейської обсерваторії цифрових медіа. "Якщо порівнювати з іншими формами дезінформації, наприклад, зі старими зображеннями та відеозаписами, які зараз поширюються у недостовірному вигляді, то обсяг доволі невеликий", - уточнює експерт. Однак це, на його думку, не означає, що дана технологія не відіграє в цьому конфлікті жодної ролі.

Хані Фарід з Університету Берклі в інтерв'ю DW пояснює, що не вважає кількість підробок, створених за допомогою ШІ, у цьому разі важливим чинником. "Величезний вплив можуть мати і два фото, що стали вірусними й побачені сотнями мільйонів людей", - попереджає Фарід. За його оцінкою, сила впливу ШІ-фейків та інших форм дезінформації полягає в тому, що вони "забруднюють інформаційну екосистему".

Просуванню яких наративів служать ШІ-фейки?

Фото, що циркулюють у соцмережах, створені із застосуванням ШІ, як правило, здатні викликати у тих, хто їх бачить, сильні емоції. Томмазо Канетта виділяє дві основні категорії: зображення, що підкреслюють страждання мирного населення, що викликають співчуття до зображених на них людей - а також фейки, що перебільшують підтримку або Ізраїлю, або ХАМАС, або палестинців і апелюють до патріотичних почуттів.

До першої категорії відноситься, наприклад, зображення батька з п'ятьма дітьми, розташоване нижче, на тлі купи уламків після ізраїльських бомбардувань Сектора Гази, яке було багаторазово ретвітнуто на платформі X і мало сотні тисяч переглядів. Згодом цю фотографію було визнано фальшивкою. Розпізнати фейк тут можна з різних помилок і невідповідностей, типовим для зображень, згенерованих ШІ.

Це зображення було визнано фальшивкою
Це зображення було визнано фальшивкоюФото: X

Наприклад, праве плече чоловіка розташоване непропорційно високо. Дивно виглядають і дві кінцівки, що виступають з-під светра - вони начебто виростають із нього. Впадає в око і те, що руки двох хлопчиків, що обхопили шию батька, зливаються воєдино. Крім того, на кількох руках і ногах на фото надто багато чи надто мало пальців. Подібні аномалії можна спостерігати і в наступному ШІ-фейку, що набув широкого поширення в соцмережі X. Тут нібито зображено палестинську сім'ю, яка обідає на руїнах.

Знегероване ШІ фото
Знегероване ШІ фотоФото: X

До другої категорії відноситься зображення, на якому зображені солдати, які розмахують ізраїльськими прапорами й проходять через населений пункт із розбомбленими будинками. Облікові записи, що розмістили це зображення, наприклад, в Instagram і X, зважаючи на все, здебільшого видаються проізраїльськими і вітають подію, що зображена. DW також виявила цю картинку як ілюстрацію до статті в болгарській інтернет-газеті, яка не розпізнала і не позначила її як згенеровану ШІ.

Вулиця на цьому зображенні виглядає надто чистою, а руйнування - дуже однорідними
Вулиця на цьому зображенні виглядає надто чистою, а руйнування - дуже одноріднимиФото: X

Що тут справляє ефект несправжнього, так це те, як майорять ізраїльські прапори. Крім того, вулиця в центрі виглядає надто чистою, тоді як уламки - дуже однорідними. Зруйновані будівлі також справляють враження копій, розставлених досить рівномірно одна від одної. Одним словом, візуальне враження надто "чисте", щоб здаватися реалістичним. Подібна бездоганність, коли зображення виглядають як намальовані, характерна і для ШІ.

ЗМІ також розповсюджують зображення, створені ШІ

Більшість зображень, створених за допомогою штучного інтелекту, поширюються приватними обліковими записами в соцмережах. Однак вони використовуються й у журналістиці. Питання про те, чи це може бути корисним або доцільним і в яких випадках, обговорюється зараз у багатьох медіаструктурах. У зв'язку з цим широкий резонанс викликали дії компанії Adobe, яка наприкінці 2022 року додала у свій асортимент фотографій зображення, створені ШІ. У базі даних вони позначені відповідним чином.

Тепер Adobe пропонує купити у неї й згенеровані ШІ зображення, які пов'язані з війною на Близькому Сході - наприклад, вибухи, як протестують люди або клуби диму за мечеттю Аль-Акса. Критики вважають таку пропозицію дуже сумнівною. Тим часом деякі сайти та ЗМІ продовжують використовувати ці зображення, не вказуючи, що вони створені ШІ - наприклад, наведена нижче картинка з'явилася на сайті Newsbreak без будь-якого посилання. DW з'ясувала це за допомогою зворотного пошуку зображень.

Згенероване ШІ фото
Згенероване ШІ фотоФото: stock.adobe.com

Навіть Європейська парламентська дослідницька служба, наукова служба Європарламенту, ілюструє онлайн-текст про близькосхідний конфлікт однією з підробок з бази даних Adobe - знову ж таки не позначаючи її як зображення, згенероване ШІ. Томмазо Канетта закликає журналістів та працівників ЗМІ дуже обережно поводитися з такими картинками. І радить утриматися від їх використання, особливо коли йдеться про реальні події, як-от війну на Близькому Сході. Інша річ, коли вони ілюструють публікації на абстрактні теми, такі як технології майбутнього.

Якої шкоди завдають зображення, створені ШІ?

Усвідомлення того, що в мережі курсує контент, створений штучним інтелектом, призводить до того, що користувачі починають почуватися невпевнено у всьому, з чим стикаються. Професор з Університету Берклі Хані Фарід пояснює: "Можливість маніпулювати фотографіями, аудіо- та відеоматеріалами призводить до того, що все ставиться під сумнів".  

Так сталося і в цьому випадку: фотографією, на якій, як стверджувалося, зображено обвуглений труп ізраїльського немовляти, поділилися в соцмережі X прем'єр-міністр Ізраїлю Біньямін Нетаньяху, американський консервативний коментатор Бен Шапіро та інші. А антиізраїльський активіст зі скандальною репутацією Джексон Гінкл наполягав, що це зображення було створене за допомогою ШІ.

Джексон Гінкл представив на сайті X, за його твердженням, доказ того, що це зображення є ШІ-фейком
Джексон Гінкл представив на сайті X, за його твердженням, доказ того, що це зображення є ШІ-фейком

Як можливі докази Гінкл доклав до свого посту в Х знімок з екрана детектора штучного інтелекту "AI or not" ("ШІ чи ні"), який класифікував вищезгадане зображення як згенероване ШІ. Повідомлення Гінкла в X було переглянуто понад 20 мільйонів разів і викликало бурхливі дискусії. Як результат багато хто заявив, що зображення, швидше за все, справжнє і що Гінкл, таким чином, не правий. Хані Фарід також заявив DW, що йому не вдалося виявити в цьому зображенні жодних невідповідностей, які б вказували на підробку за допомогою ШІ.

Як це може бути? Детектори ШІ, за допомогою яких можна перевірити, чи є зображення або текст згенерованим штучним інтелектом, поки що нерідко видають помилкові результати. Залежно від перевіреної картинки вони виносять або правильні, або неправильні судження, причому найчастіше з різною часткою ймовірності, а не як стовідсоткове твердження. Тому ці детектори пригідні у кращому разі як додатковий, але не єдиний інструмент для перевірки потенційних підробок, створених за допомогою ШІ.

Коли фактчекінг-група DW спробувала перевірити це зображення на "AI or not", детектор не класифікував його як згенероване ШІ
Коли фактчекінг-група DW спробувала перевірити це зображення на "AI or not", детектор не класифікував його як згенероване ШІ

Фактчекінг-група DW також не змогла виявити явних ознак маніпуляцій за допомогою ШІ на зображенні з тілом немовляти. Цікаво, що коли група спробувала самостійно перевірити це зображення на "AI або not", детектор не класифікував його як згенероване ШІ - але вказав на низьку якість картинки. Інший детектор ШІ (Hive Moderation) також дійшов висновку, що зображення є справжнім.

Як розпізнати фото і відео, створені штучним інтелектом