Fact check: cum se identifică deep fake-urile audio
15 august 2024Să fie adevărat că fostul președinte american Barack Obama ar fi sugerat că în spatele tentativei eșuate de asasinare a succesorului său Donald Trump s-ar afla democrații? Mai multe înregistrări audio, fragmente dintr-o presupusă discuție a lui Obama cu fostul său consilier David Axelrod despre viitoarele alegeri prezidențiale din noiembrie, au circulat de curând în Statele Unite. Într-una dintre aceste bucăți de înregistrări audio, o voce asemănătoare cu cea a ex-președintelui spune: "A fost singura lor oportunitate și idioții ăștia au ratat-o. Dacă ar putea scăpa de Trump, le-am asigura victoria împotriva oricărui candidat republican."
Înregistrările audio au fost descrise ca fiind deep fake. Aceasta înseamnă că vorbele atribuite lui Obama nu au fost de fapt rostite de el, ci au fost generate sintetic cu ajutorul inteligenței artificiale (AI).
NewsGuard, o organizație de monitorizare a dezinformării din media americană, a publicat o analiză a fișierelor audio. A folosit mai multe instrumente de detectare a contrafacerilor și a intervievat un expert în criminalistică digitală, înainte de a trage concluzia că ne aflăm în fața unui fals. Un purtător de cuvânt al lui Obama a subliniat, la rândul lui, că înregistrarea nu are cum să fie autentică.
Obama nu este primul politician căzut victimă a unui deep fake audio. La începutul acestui an, o versiune artificial generată a vocii președintelui Joe Biden îndemna electoratul din New Hampshire să nu voteze la alegerile primare.
Nu este o problemă exclusiv americană. Anul trecut, cu puțin timp înainte de alegerile din Slovacia, un audio deep fake l-a avut ca subiect pe candidatul social-liberal Michal Šimečka. În Regatul Unit, primarul Londrei, Sadiq Khan, a fost, de asemenea, victima unui audio deep fake în care i-au fost puse în gură o serie de remarci controversate.
Înregistrările audio deep fake au devenit astfel un risc de dezinformare semnificativ, mai ales în vremuri de incertitudine politică, cum ar fi în timpul alegerilor.
Ușor de fabricat, greu de dezmințit
Asemenea manipulări audio sunt relativ ușor de creat și distribuit. ”Pentru a obține rezultate aproape realiste, este nevoie de mai puțină pregătire, de un volum mai redus de date și de tehnologie mai simplă decât în cazul deep fake-urilor video”, explică Anna Schild, din echipa de inovare media a DW. Împreună cu colega ei Julia Bayer, Schild a studiat impactul deep fake-urilor audio. ”Sunt versatile, pot fi folosite de la roboți telefonici la mesaje vocale sau voce din off pentru materiale video, dispun de canale multiple de diseminare”.
Deep fake-urile audio sunt adesea mai greu de detectat decât alte forme de dezinformare, ”deoarece, pur și simplu, avem mai puține indicii”, susține Nicolas Müller, inginer de învățare asistată de calculator la Institutul Fraunhofer pentru Securitate Aplicată și Integrată din Germania: ”Într-un videoclip, avem audio, video și o anumită sincronicitate între ele”. În fișierele audio există mai puține elemente pe care oamenii se pot baza pentru a le identifica veridicitatea.
Ce pot, atunci, face utilizatorii, dacă întâlnesc un fișier audio despre care au suspiciunea că ar fi fost creat de AI? Un răspuns este combinarea tehnicilor de verificare cu utilizarea instrumentelor AI specializate în detectarea deep fake-urilor audio.
Ascuțirea simțurilor
O sugestie inițială este căutarea în fișier a urme de informații care ar putea sugera o manipulare. În exemplul menționat mai sus, aceasta ar însemna compararea înregistrării suspecte cu altele cunoscute și verificate ale fostului președinte Obama, pentru a identifica eventuale discrepanțe: cuvinte pronunțate diferit, pauze nenaturale sau tipare ciudate de respirație.
Dincolo de această comparație directă, o altă verificare ar trebui să vizeze posibile sunete de fundal sau zgomote nenaturale.
Găsirea acestor discrepanțe poate fi dificilă pentru urechile neinstruite, dar mai multe instrumente au fost concepute pentru a ajuta la identificarea dezinformărilor audio. Proiectul Digger Deep Fake Detection, la care a participat și DW, a dezvoltat exerciții practice pentru ca oamenii să se antreneze în ascultare critică. Echipa lui Nicolas Müller a dezvoltat, de asemenea, un joc în care participanții pot testa dacă sunt în stare să identifice deep fake-uri audio.
Instrumente AI de combatere a dezinformărilor AI
Un nivel suplimentar de verificare presupune utilizarea instrumentelor care integrează tehnologia AI pentru a identifica deep fake-urile audio.
În exemplul de la care am pornit, NewsGuard a recurs la verificatoare de deep fake precum True Media și robotul lor detector, capabil să răspundă la solicitările utilizatorilor de pe platforma de socializare X.
Institutul german Fraunhofer a dezvoltat, între timp, Deep Fake Total, o aplicație în care utilizatorii pot încărca fișiere audio suspecte de pe platforme specializate, de exemplu YouTube sau X, pentru a le analiza. Scorul afișat de un ”fake-o-metru” indică probabilitatea ca fișierul să fie fals.
Instrumentele de detectare a deep fake-urilor nu sunt, totuși, o garanție absolută. Acestea dau răspunsuri orientative, ceea ce înseamnă că ar trebui utilizate cu prudență.
Publicul mai poate căuta site-uri și platforme de verificare a faptelor pentru a afla dacă mesajul din sunetul suspect a fost deja dezmințit de profesioniștii în fact checking.
Și unele instituții media au dezvoltat instrumente de identificare a falsurilor audio. Cu VerificAudio, ibericii de la Prisa Media își propun să detecteze falsurile din spațiul de limbă spaniolă. Jose Gutierrez, director general la Prisa Media, a explicat pentru DW că instrumentul se bazează pe două modele AI. Primul compară vocea din sunetul suspect cu vocea reală a aceleiași persoane, în timp ce al doilea analizează atribute audio precum lățimea de bandă, înălțimea, frecvența și textura sunetului. Produsul, a subliniat Gutierrez, nu oferă răspunsuri închise, ci mai degrabă procente de plauzibilitate.
Verificarea contextului
Dacă toate acestea par prea complicate sau prea tehnice, ceea ce ar putea ajuta ar fi practicile de verificare mai tradiționale, care nu se bazează exclusiv pe analiza fișierelor audio. Echipa de inovare a DW sugerează o perspectivă mai largă: verificarea conținutului, a sursei și a oricăror informații suplimentare relevante. Câteva instrumente de lucru pot fi găsite pe un site web numit How to verify, recomandat de echipa DW Innovation.
Unele sfaturi utile includ compararea conținutului audio cu fapte cunoscute, verificarea canalelor de socializare ale persoanei și căutarea unui context suplimentar pe surse de știri de încredere. În cele din urmă, totul se rezumă la un amestec de abilități. După cum subliniază echipa DW Innovation, ”nu există o soluție cu un singur buton care să poată detecta orice manipulare audio”.