Cek Fakta: Bagaimana Cara Cek Foto Hasil Buatan AI?
12 September 2025
Belakangan ini, membuat gambar palsu yang terlihat nyata jadi hal yang amat mudah.
Siapa pun yang memiliki koneksi internet dan akses ke alat berbasis kecerdasan buatan (AI) kini bisa membuat gambar yang tampak sangat realistis hanya dalam hitungan detik, lalu menyebarkannya ke media sosial dengan cepat.
Contohnya, banyak gambar seperti ini jadi viral: Presiden Rusia Vladimir Putin yang seolah-olah ditangkap, atau CEO Tesla Elon Musk yang tampak bergandengan tangan dengan CEO General Motors Mary Barra.
Masalahnya, kedua gambar itu menunjukkan peristiwa yang tidak pernah terjadi. Bahkan, beberapa fotografer juga telah mempublikasikan potret yang ternyata merupakan gambar buatan AI.
Menurut pakar, meski sebagian gambar ini tampak lucu, mereka juga bisa membawa bahaya nyata dalam bentuk disinformasi dan propaganda.
Gempa bumi yang tidak pernah terjadi
Gambar yang memperlihatkan penangkapan tokoh terkenal seperti Putin atau Presiden AS Donald Trump biasanya bisa diverifikasi dengan cepat oleh pengguna jika mereka memeriksa sumber media terpercaya.
Namun, menurut pakar AI Henry Ajder, gambar lain yang menampilkan orang-orang yang tidak terkenal jauh lebih sulit diverifikasi.
Contohnya, seorang anggota parlemen Jerman dari partai sayap kanan AfD pernah membagikan gambar AI di Instagram yang menunjukkan sekelompok pria berteriak, untuk menunjukkan bahwa ia menolak kedatangan pengungsi.
Menurut Ajder, bukan hanya gambar orang yang bisa digunakan untuk menyebarkan disinformasi. Ada juga kasus di mana pengguna menciptakan peristiwa yang tidak pernah terjadi.
Salah satunya adalah gempa besar yang dikatakan mengguncang wilayah Pacific Northwest di AS dan Kanada pada tahun 2001.
Padahal, gempa itu tidak pernah terjadi, dan gambar-gambar yang dibagikan di Reddit ternyata dibuat oleh AI.
“Jika kita membuat gambar pemandangan, bukan gambar manusia, akan jauh lebih sulit untuk mengenali apakah itu asli atau tidak,” jelas Ajder.
Namun, Ajder menambahkan bahwa program AI tetap membuat kesalahan, walaupun mereka berkembang sangat cepat. Hingga April 2023, program seperti Midjourney, DALL-E, dan DeepAI masih memiliki banyak kelemahan, terutama pada gambar yang memperlihatkan manusia.
Tim cek fakta DW telah menyusun beberapa tips yang dapat membantu menilai apakah sebuah gambar palsu atau tidak.
1. Perbesar dan amati detailnya
Sekilas, banyak gambar AI terlihat sangat nyata.
Langkah pertama adalah mencari gambar dalam resolusi tertinggi yang tersedia, lalu zoom in untuk melihat detail.
Dengan memperbesar gambar, kamu bisa menemukan ketidakkonsistenan atau kesalahan yang tidak terlihat pada pandangan pertama.
2. Cari sumber asli gambar
Jika ragu apakah sebuah gambar asli atau buatan AI, coba temukan sumber aslinya.
Baca komentar di bawah gambar, karena terkadang pengguna lain memberikan info tentang sumbernya.
Lakukan reverse image search menggunakan alat seperti Google Reverse Image Search, TinEye, atau Yandex.
Hasil pencarian bisa menunjukkan sumber asli gambar atau bahkan tautan ke laman cek fakta dari media terpercaya.
3. Perhatikan proporsi tubuh
Periksa apakah proporsi tubuh terlihat wajar.
Gambar AI sering kali memiliki ketidaksesuaian proporsi, seperti tangan yang terlalu kecil, jari yang terlalu panjang, kepala atau kaki yang tidak seimbang dengan tubuh.
Misalnya, dalam gambar palsu yang menunjukkan Putin berlutut di depan Presiden China Xi Jinping, sepatu orang yang berlutut tampak terlalu besar dan lebar, betis terlihat tidak proporsional, dan ukuran kepala tidak sesuai dengan tubuh.
4. Waspadai kesalahan AI yang umum terjadi
Hingga saat ini, tangan adalah bagian tubuh yang paling sering salah dibuat oleh AI, seperti Midjourney dan DALL-E.
Biasanya, orang terlihat memiliki enam jari, seperti polisi di sebelah kiri Putin dalam contoh gambar palsu yang ada di atas.
Ada juga contoh lain dari foto Pope Francis pada tahun 2023.
Apakah kamu sadar bahwa Paus Fransiskus hanya terlihat punya empat jari di tangan kanan? Selain itu, jari di tangan kirinya pun terlihat sangat panjang. Faktanya, foto tersebut palsu.
Kesalahan umum lain pada gambar yang dihasilkan AI termasuk jumlah gigi yang terlalu banyak, bingkai kacamata yang terlihat aneh atau terdistorsi, serta bentuk telinga yang tidak realistis, seperti pada gambar palsu Xi Jinping dan Putin yang disebutkan sebelumnya.
Dalam hitungan detik, generator gambar seperti Random Face Generator bisa membuat wajah orang yang sebenarnya tidak pernah ada. Meski tampak sangat meyakinkan, kamu tetap bisa memperhatikan bentuk yang tidak wajar pada telinga, mata, atau rambut, serta distorsi pada kacamata atau anting. Kesalahan ini kerap terjadi karena AI belum sempurna.
Permukaan yang memantulkan cahaya, seperti visor helm, juga sering menjadi tantangan bagi AI. Hasilnya bisa tampak seperti pecah atau terurai, seperti yang terlihat pada gambar palsu yang mengklaim penangkapan Putin.
Namun, pakar AI Henry Ajder memperingatkan bahwa versi terbaru program seperti Midjourney semakin canggih dalam membuat detail seperti tangan, sehingga ke depannya kita tidak bisa lagi hanya mengandalkan kesalahan-kesalahan ini untuk mendeteksi gambar palsu.
5. Apakah fotonya terlihat sangat halus dan terlalu sempurna?
Aplikasi Midjourney sering menghasilkan gambar yang terlalu sempurna sehingga terlihat tidak nyata.
Coba ikuti intuisimu: apakah mungkin gambar orang yang begitu sempurna, benar-benar nyata?
"Wajahnya terlalu mulus, tekstur kain yang ditampilkan juga terlalu harmonis," kata Andreas Dengel dari German Research Center for AI kepada DW.
Pada banyak gambar buatan AI, kulit tampak mulus tanpa iritasi, bahkan rambut dan gigi terlihat sempurna. Padahal, pada kenyataannya, hal itu jarang terjadi.
Banyak gambar buatan AI juga memiliki tampilan artistik, berkilau, dan glamor. Nyatanya, efek tersebut pun sulit diciptakan fotografer profesional di studio.
AI sering kali mendesain gambar yang ideal, seolah-olah ingin menciptakan hasil yang sempurna.
6. Periksa latar belakang gambar
Latar belakang sering kali jadi petunjuk bahwa gambar dimanipulasi.
Objek seperti tiang lampu atau gedung bisa terlihat bengkok atau terdistorsi.
Ada pula kasus di mana AI mengkloning orang atau benda, sehingga objek yang sama muncul dua kali.
Namun, efek blur ini bisa memiliki kesalahan, seperti contoh gambar di atas yang memperlihatkan Will Smith marah di Oscar. Latar belakangnya bukan hanya terlihat tidak fokus, tetapi tampak diblur secara artifisial.
Kesimpulan
Saat ini, banyak gambar buatan AI masih bisa dibongkar dengan sedikit riset. Namun, seiring teknologi berkembang, kesalahan akan makin jarang terjadi.
Apakah detektor AI seperti Hugging Face dapat membantu kita mendeteksi manipulasi?
Berdasarkan temuan kami, detektor hanya memberi petunjuk, tidak lebih.
Para pakar yang diwawancarai tidak menyarankan penggunaan detektor ini, karena alat tersebut belum cukup canggih. Bahkan, foto asli bisa dinyatakan palsu, dan sebaliknya.
Oleh karena itu, jika ragu, cara terbaik untuk membedakan peristiwa nyata dari yang palsu adalah dengan menggunakan logika, mengandalkan media terpercaya, dan tidak sembarangan membagikan gambar yang belum terverifikasi.
Artikel ini pertama kali terbit dalam bahasa Inggris
Diadaptasi oleh Adelia Dinda Sani
Editor: Rahka Susanto