″التزييف العميق″.. هكذا يمكنك اكتشاف فبركة الصوت والصورة | سياسة واقتصاد | تحليلات معمقة بمنظور أوسع من DW | DW | 08.01.2022
  1. Inhalt
  2. Navigation
  3. Weitere Inhalte
  4. Metanavigation
  5. Suche
  6. Choose from 30 Languages
إعلان

سياسة واقتصاد

"التزييف العميق".. هكذا يمكنك اكتشاف فبركة الصوت والصورة

في عصر ما يُعرف بتقنية "التزييف العميق"، أصبح من الصعب معرفة إذا كان المقطع المصور حقيقيا أم لا بالعين المجردة. لكن لا يجب ألا يساورنا القلق، فهنك طرق لمعرفة ذلك. DW بعض النصائح لاكتشاف ذلك.

مقطع من يوتيوب من فيديو كل واحد يرقض الآن

دمج رقص وصوت وصورة المطرب الأمريكي برونو مارس أنصح مثال على توظيف تقنية "التزييف العميق"

 

تخيل أنك ترقص وتغني بنفس البراعة والرشاقة وقوة الصوت للمطرب الأمريكي برونو مارس! قد يبدو الأمر صعبا إذ ربما يعتقد كثيرون أن التكنولوجيا التي تستخدم لتمكن أي شخص لفعل أو قول أشياء لم يفعلها أبدا معقدة، بل يمكن امتلاك هذه التكنولوجيا بسهولة، إذ لا يحتاج الأمر إلا إلى لقطات مصورة وتسجيل مصور للبدء في خلق "واقع بديل".

يُطلق على هذه التقنية الخاصة  بالتلاعب بالمحتوى  سواء أكان بصريا أم صوتيا باستخدام الذكاء الاصطناعي، "التزييف العميق".(deepfakes).

هذا المثال يعود لعام 2018 ولا يزال مثيرا للأعجاب، لكن الآن وبفضل تقنية "التزييف العميق" يمكن أن يكون واقعيا ومقنعا بدرجة كبيرة.

ما هو "التزييف العميق"؟

يصف مصطلح "التزييف العميق" عملية جمع ملفات الصوت والفيديو بواسطة الذكاء الاصطناعي أو التعلم الآلي بشكل دقيق.

وتكون كافة مجالات "التزييف العميق" ممكنة بداية من تبديل الوجوه بمعنى استبدال وجه شخص بآخر أو تزامن تحريك الشفاه إذ يمكن ضبط فم المتحدث على ملف صوتي مختلف عن الصوت الأصلي أو استنساخ الصوت، حيث يتم استنساخ نسخة من الصوت من أجل استخدامها لقول أشياء أخرى.

ولا يتوقف الأمر عند هذا المستوى، بل يمكن أيضا إنشاء وجوه وأجساد اصطناعية بالكامل على سبيل المثال صورة رمزية رقمية (أفاتار).

بل أن العجيب أنه يمكن استخدام تقنية "التزييف العميق" لاستحضار الموتى مثلما فعل متحف دالي في فلوريدا مع الفنان سلفادور دالي إذ استعان المتحف الأمريكي بهذه التقنية للسماح لزواره بالتقاط صورة حية مع دالي – الذي توفي عام 1989 - حيث يقوم بالتقاط صور سيلفي بنفسه.

تعتمد عملية استخدام الذكاء الاصطناعي للتلاعب بمقطع مصور على تقنية تُعرف بـ"شبكة الخصومة التوليدية" التي تعد نموذجا للتعلم الآلي، حيث تتنافس شبكتين عصبيتين ضد بعضهما من أجل الخروج بنتائج أكثر دقة، إذ ترمي هذه التقنية إلي تحسين النتائج.

وقد نجد صعوبة في فهم المقصود بتنافس شبكتين، لكن سنوضح كيف تجري العملية كالتالي: سوف يبلغ أحد أجهزة الكمبيوتر، الكمبيوتر الآخر إذا كان الاستنساخ الرقمي، سواء أكان مرئيا أو سمعيا، الذي صنعه لأي شخص مقنعا ومطابقا بدرجة كبيرة وكافية مع النسخة الأصلية لهذا الشخص؛ بمعني هل تحريك الشفاه في النسخة المستنسخة مطابقا للنسخة الأصلية، وكذلك هل تعبيرات الوجه متطابقة.

باستخدام "شبكة الخصومة التوليدية" يُجرى تحسين النظام ككل حتى الوصول إلى نتيجة مقنعة.

على الرغم من أن هذه التكنولوجيا يطرأ عليها التطوير والتحسين بشكل مستمر، إلا أنه يمكن لأي شخص اكتشاف التلاعب سواء مرئيا أو صوتيا بمعنى آخر الإمساك بـ "التزييف العميق" إذا تم تحديد الشيء الذي نبحث عنه.

Infografik Faktencheck DeepFakes AR

طرق اكتشاف "التزييف العميق"

ولا يحتاج الإمساك بالمقاطع التي تعرضت لتقنية "التزييف العميق" أن يكون المرء خبيرا في هذه التقنية المعقدة من أجل  التمييز بين ما هو حقيقي وبين ما هو مزيف.

وفي ذلك، تقدم DW بعض النصائح للمساعدة في التحري عن "التزييف العميق".

في البداية شاهد المقطع بتركيز ولا تتسرع في نشره، وأطرح على نفسك سؤالا مفاده: هل هذا المقطع حقيقي؟ ألا يمكن أن يكون مفبركا؟ إذ كنت في حال شك لا تنشره أو ترسله لأي شخص.

وفي حالة وجود شك، يتعين عليك  القيام بالبحث عن نفس القصة أو المقطع من مصادر مختلفة  لكنها جديرة بالثقة على شبكة الإنترنت، إذ سيساعد العثور على قصة مماثلة على الإمساك بطرف الخيط للوصول إلى القصة الحقيقية.

وفي حالة الشك في مقتطف صوتي أو صورة أو مقطع مصور، قم بإدخال هذا الجزء في محرك البحث غوغل أو محرك بحث DuckDuckGo ثم أبحث عن نسخة أخرى مشابهة. بعد ذلك يمكن المقارنة بين النسختين.

ويمثل رصد واكتشاف بعض الآثار عن وجود تلاعب أكبر تحدي، لكن هناك بعض الجوانب قد تساعد في الأمر مثل وجود لقطات غير متسقة أو تغير في نبرة الصوت أو جودته وغيرها مهما كانت صغيرة، فقد تكون مفيدة وعليك أن ثق في حواسك البصرية والسمعية وأسال نفسك دائما: هل يبدو الأمر منطقيا؟

ويجب أن تتذكر أن الأمر يتطلب فقط الكثير من التركيز وربما قد يتطلب الأمر طلب المساعدة من شخص آخر ليساعدك في تحديد أماكن التلاعب التي قد تكون أشياء بسيطة مثل الأنف أو الأذن أو الأسنان ودرجة بياضها أو حتى تسريحة الشعر وهل يبدو الأمر متطابقا.

قد يتطلب الأمر مشاهدة المقطع بمعدل مشهد لاكتشاف التناقضات، فيما يمكن الاستعانة على سبيل المثال بـ "مُشغل الوسائط في. أل. سي" أو موقع watchframebyframe.com.

كذلك قم بتكبير حركات الفم والشفاه وقارنها بالنسخة الأصلية لاكتشاف تزامن تحريك الشفاه، وهل يبدو الأمر منطقيا.

قم بتعزيز المهارات السمعية والمرئية

يتضح من كل ما ذُكر أن الأمر يتعلق برمته بحواس الإنسان خاصة المهارات السمعية والمرئية، ولحسن الحظ يمكن تعزيز قدراتك هذه، فمن خلال هذا التدريب يمكنك تحسين مهارات السمع والرؤية لاكتشاف أي تلاعب في الصورة أو الصوت.

خطر كبير في تقنية "التزييف العميق"

يمكن استخدام تقنية "التزييف العميق" في مجال المواد الإباحية التي تأتي في إطار ما يُعرف بـ "الانتقام الإباحي"، حيث يتم نشر صور أو مقاطع إباحية مزيفة من أجل الابتزاز أو حتى إلحاق الضرر بسمعة الضحية.

ويُعرف "الانتقام الإباحي" بنشر صور أو مقاطع مصورة إباحية في الغالب على الانترنت بهدف الانتقام من اشخاص والإضرار بهم.

أما فيما يتعلق بالمجتمعات بشكل عام، فإن مخاطر تقنية "التزييف العميق" تعتمد على طريقة استهلاكنا للإنترنت إذ يشاهد الشخص الكثير عند تصفح الشبكة العنكبوتية ومواقع التواصل الاجتماعي ولا يكون على الدوام متأكدا بما ينشره أو يشاركه وهل هو حقيقي أم مفبرك؟

كيف يمكن كشف المعلومات المضللة و اكتشاف التزييف العميق؟

كيف يمكن كشف المعلومات المضللة و اكتشاف التزييف العميق؟

أما في المجتمعات التي تعاني من حالة استقطاب، فإن تقنية "التزييف العميق" تعد  فرصة كبيرة لخداع الأشخاص كي يصدقوا أشياء بعينها.

واللافت أن الأمر لا يتعلق بجودة المقطع المزيف فقد يكون محل الأمر ما رأيته حتى لو لم يكن صحيحا على سبيل المثال مقطع مصور لنجم المنتخب الإنجليزي السابق ديفيد بيكهام وهو يتحدث بتسع لغات.

يشار إلى أنه في أبريل / نيسان عام 2019، أطلق بيكهام حملة للقضاء على الملاريا عن طريق توجيه رسالة عبر مقطع مصور بتسع لغات. بدأ الرسالة باللغة الإنجليزية ثم تحدث بثماني لغات أخرى، بيد أن اللغات الثمانية الأخرى لم تكن بصوته وإنما بأصوات ناجين من الملاريا وأطباء.

وفي ذلك الوقت، قالت المنظمة البريطانية التي أنتجت المقطع إنها استخدمت تقنية خاصة بالفيديو حتى يبدو بيكام وكأنه يتحدث بهذه اللغات الثمانية.

وسياسيا، تم إنتاج فيديو مزيف بتقنية "التزييف العميق" انتشرت بشكل كبير عن طريق موقع De Correspondent الإخباري يُظهر فيه رئيس وزراء هولندا مارك روته يتحدث عن تغيير كبير في سياسته، يما يفيد أنه سيدعم بشكل كامل التدابير المناخية بعيدة المدى.

وقد يستفيد بعض السياسيين من مناخ إعلامي ملي بالمعلومات الخاطئة، إلا أن وجود تقنية مثل "التزييف العميق" تسمح لهم بالزعم بأن ما قالوه غير حقيقي ومزيف وسيكون من الصعب إثبات العكس.

وربما يكون المثال الأوقع على هذا الأمر، ادعاء الرئيس الأمريكي السابق دونالد ترامب عام 2016 أن تسجيلا مصورا يعود لعام 2005 يتحدث فيه بطريقة بذيئة عن النساء، كان مفبركا رغم أنه  قدم اعتذارا عن تلك العبارات فيما بعد.

استعان متحف سلفادور دالى في فلوريدا بالذكاء الاصطناعى لإعادة الرسام العالمي سلفادور دالى من الموت

استعان متحف سلفادور دالى في فلوريدا بالذكاء الاصطناعى لإعادة الرسام العالمي سلفادور دالى "من الموت"

الدرس المستفاد

خلاصة القول إن نشر معلومات مضللة يمكن أن يكون لأسباب أبرزها إثارة الشكوك والجدل أو دعم بعض المعتقدات بطريقة مخادعة، لكنها تحدث الضجيج المطلوب.

وقد يصعب على المرء التحقق من المقاطع المصورة أو الصوتية التي تم التلاعب بها، لكن يمكن أن يتدرب المرء على معرفة كيف يمكنه اكتشاف مواضع "التزييف العميق".

وقبل كل شيء، يتعين التوقف عن نشر أو مشاركة أي شيء لم يتم التحقق من مصداقيته وصحته.

جوليا باير، روبن بوميستر / م ع