Cek Fakta: Bagaimana Cara Mengenali Audio Deepfake?
18 September 2025
Benarkah mantan Presiden Barack Obama menyebut Partai Demokrat berada di balik upaya pembunuhan terhadap Donald Trump?
Pada tahun 2024, beredar sejumlah rekaman suara di Amerika Serikat (AS) yang diklaim sebagai percakapan antara Obama dan mantan penasihatnya, David Axelrod. Rekaman tersebut disebut membahas pemilihan presiden AS yang digelar pada bulan November.
Dalam salah satu potongan audio, terdengar suara yang menyerupai Barack Obama mengatakan: "Itu satu-satunya kesempatan mereka, dan para idiot itu gagal. Kalau saja mereka bisa menyingkirkan Trump, kami bisa memastikan kemenangan melawan kandidat Partai Republik mana pun."
Namun, setelah ditelusuri rekaman tersebut terbukti palsu. Obama tidak pernah mengucapkan pernyataan itu. Suara dalam rekaman dihasilkan menggunakan kecerdasan buatan (AI).
Lembaga pemeriksa fakta NewsGuard melakukan analisis mendalam terhadap audio tersebut. Mereka menggunakan berbagai alat deteksi AI, mewawancarai pakar forensik digital, dan mengonfirmasi langsung kepada juru bicara Obama. Hasilnya, audio tersebut sepenuhnya buatan.
Obama bukan satu-satunya korban. Awal tahun 2024, beredar rekaman palsu Presiden Joe Biden yang meminta warga tidak memilih dalam pemilu pendahuluan di New Hampshire.
Fenomena ini juga terjadi di luar AS. Menjelang pemilu di Slowakia pada 2023, audio deepfake yang meniru suara pemimpin partai liberal Michal Simecka tersebar luas. Di Inggris, Wali Kota London Sadiq Khan juga pernah menjadi korban rekaman palsu yang menimbulkan kontroversi.
Audio deepfake kini menjadi ancaman besar dalam penyebaran disinformasi, terutama di masa ketidakpastian politik seperti saat pemilu.
Mudah dibuat, tapi kebenarannya sulit dicek
Audio deepfake berbahaya karena mudah dibuat dan cepat menyebar, terutama di masa kampanye politik.
Menurut Anna Schild, pakar komunikasi dari tim Research and Cooperation Projects DW, membuat audio palsu jauh lebih mudah dibandingkan video deepfake.
"Membuat deepfake audio butuh lebih sedikit data dan tenaga komputasi, tapi hasilnya bisa terdengar sangat realistis," jelas Schild.
Ia telah meneliti dampak dari audio deepfake bersama rekannya, Julia Bayer. Schild menjelaskan mengapa teknologi ini makin populer dan cepat berkembang.
“Audio deepfakes bisa digunakan untuk berbagai keperluan, mulai dari robocall (panggilan otomatis), pesan suara, hingga voiceover suara. Jadi, saluran penyebarannya sangat beragam,” kata Schild.
Masalahnya, audio deepfakes jauh lebih sulit dideteksi dibandingkan bentuk disinformasi lain seperti video palsu.
“Audio palsu lebih sulit dikenali daripada video deepfakes karena kita memiliki lebih sedikit petunjuk,” ujar Nicolas Müller, insinyur machine learning di Fraunhofer Institute for Applied and Integrated Security, Jerman, kepada DW.
“Dalam video, kita bisa membandingkan audio dan visual, termasuk kesesuaian gerak bibir dengan suara,” jelas Müller, yang mempelajari kemampuan orang dalam mengenali rekaman palsu. Ia dan timnya menemukan bahwa pada file audio, jauh lebih sedikit elemen yang bisa dijadikan acuan untuk menentukan apakah rekaman itu asli atau tidak.
Lalu, apa yang bisa dilakukan jika kita menemukan file audio yang terasa mencurigakan dan mungkin dihasilkan AI?
Salah satu caranya adalah menggabungkan teknik verifikasi standar dengan penggunaan perangkat lunak berbasis AI yang dirancang khusus untuk mendeteksi audio deepfakes.
Cara mendeteksi audio deepfake
Salah satu cara untuk memverifikasi apakah rekaman audio asli atau palsu adalah dengan memeriksa pola tertentu yang bisa menjadi tanda campur tangan AI.
Dalam kasus rekaman suara Barack Obama yang disebutkan sebelumnya, langkahnya adalah membandingkan file yang mencurigakan dengan rekaman suara Obama yang sudah terverifikasi keasliannya. Dari situ, bisa dicari perbedaan dalam cara berbicara Obama yang biasanya.
Perbedaan itu bisa berupa pelafalan kata yang aneh, jeda bicara yang tidak alami, atau pola pernapasan yang terasa janggal.
Selain itu, pemeriksaan lebih mendalam juga bisa dilakukan dengan memperhatikan suara latar atau bunyi-bunyian yang terdengar tidak wajar.
Namun, menemukan tanda-tanda seperti ini tidak mudah, terutama bagi orang yang belum terlatih. Untuk itu, sudah ada beberapa alat yang dirancang untuk membantu masyarakat berlatih mengenali jenis disinformasi ini.
Salah satunya adalah Digger deepfake detection project, yang dikembangkan bekerja sama dengan DW. Proyek ini menyediakan latihan praktis agar orang bisa mengasah kemampuan mendengar secara kritis.
Tim Nicolas Müller juga mengembangkan sebuah game interaktif yang memungkinkan peserta menguji seberapa baik mereka dapat mendeteksi audio deepfakes.
Menggunakan AI untuk melawan disinformasi AI
Lapisan verifikasi tambahan dapat dilakukan dengan menggunakan perangkat lunak berbasis AI yang dirancang khusus untuk mendeteksi audio deepfakes.
Dalam contoh kasus rekaman suara sintetis Barack Obama, NewsGuard menggunakan alat seperti TrueMedia, yang memiliki bot pendeteksi deepfake. Bot ini bisa merespons permintaan verifikasi dari pengguna di platform media sosial X.
Sementara itu, Fraunhofer Institute mengembangkan Deepfake Total, sebuah platform di mana pengguna dapat mengunggah file audio yang mencurigakan untuk dianalisis. Hasil analisis ditampilkan dalam bentuk “fake-o-meter”, yang menunjukkan seberapa besar kemungkinan file tersebut merupakan buatan AI.
Namun, alat pendeteksi deepfake tidak selalu sempurna. Mereka hanya bisa memperkirakan kemungkinan sebuah file dibuat oleh AI, dan hasilnya tidak selalu akurat. Karena itu, alat ini sebaiknya digunakan sebagai salah satu langkah dalam proses verifikasi, bukan satu-satunya sumber kebenaran.
Langkah lain yang bisa dilakukan termasuk mengecek situs atau platform pemeriksa fakta, untuk melihat apakah rekaman audio tersebut sudah pernah dibantah atau diverifikasi oleh pihak lain.
Beberapa media juga telah mengembangkan alat mereka sendiri untuk mendeteksi audio deepfakes. Misalnya, VerificAudio yang dibuat oleh PRISA Media, perusahaan media global asal Spanyol, khusus untuk memeriksa rekaman dalam bahasa Spanyol.
Jose Gutierrez dari PRISA Media menjelaskan kepada DW bahwa alat ini bekerja melalui dua proses berbasis AI.
Pertama, membandingkan rekaman audio yang mencurigakan dengan rekaman asli dari orang yang sama untuk menemukan perbedaan.
Kedua, menganalisis ciri-ciri akustik seperti bandwidth, nada (pitch), frekuensi, dan tekstur suara.
Gutierrez menekankan bahwa alat ini tidak memberikan jawaban pasti, melainkan hanya menunjukkan persentase tingkat kemungkinan apakah audio tersebut asli atau hasil manipulasi AI.
Memeriksa konteks
Jika semua langkah ini terasa terlalu rumit atau teknis, cara lain untuk mengenali audio deepfake adalah dengan mengandalkan keterampilan verifikasi tradisional yang tidak hanya terbatas pada rekaman suara.
Tim Research and Cooperation Projects dari DW menyarankan untuk "melihat gambaran besar" dengan memeriksa konten, sumber, serta informasi relevan lainnya terkait audio yang mencurigakan. Mereka juga menyediakan sejumlah alat bantu di situs bernama "How to Verify".
Beberapa tips yang bisa dilakukan termasuk membandingkan isi audio dengan fakta yang sudah diketahui, memeriksa akun media sosial orang yang bersangkutan, serta mencari konteks tambahan dari sumber berita yang tepercaya.
Pada akhirnya, kuncinya adalah menggabungkan berbagai teknik verifikasi. Tim DW Research and Cooperation Projects menegaskan, “tidak ada satu tombol ajaib yang bisa mendeteksi semua bentuk manipulasi audio.”
Artikel ini pertama kali terbit dalam bahasa Inggris
Diadaptasi oleh Adelia Dinda Sani
Editor: Hani Anggraini