WEBVTT 1 00:00:00.433 --> 00:00:05.090 ڈونلڈ ٹرمپ پر قاتلانہ حملے کی ویڈیوز اتنی زیادہ مرتبہ میری فیڈز میں سامنے 2 00:00:05.100 --> 00:00:08.433 آتی رہی ہیں کہ میں تو شاید جلد انہیں بھول ہی نہیں پاؤں گا۔ 3 00:00:08.933 --> 00:00:14.100 جب بات آتی ہے اس طرح کے واقعات کی تو سوشل میڈیا کیا کردار ادا کرتا ہے؟ 4 00:00:14.700 --> 00:00:19.500 ایک سابق امریکی صدر اور اسی عہدے کے لیے ایک بار پھر امیدوار امریکی 5 00:00:19.500 --> 00:00:22.800 سیاستدان پر قاتلانہ حملہ یقیناﹰ ایک بڑی خبر ہے۔ 6 00:00:23.000 --> 00:00:27.500 لیکن سوشل میڈیا نے اس کے اثرات کو کہیں زیادہ بڑھا چڑھا دیا۔ 7 00:00:28.000 --> 00:00:33.500 خبریں اور تصاویر پلک جھپکنے میں دنیا کے کونے کونے تک پہنچ گئیں اور پھر 8 00:00:33.500 --> 00:00:36.200 سلسلہ شروع ہوا سازشی نظریات سامنے آنے کا۔ 9 00:00:36.833 --> 00:00:42.700 افراد کی ذاتی آراء دیگر لوگوں تک پہنچنے لگیں جیسا کہ ٹیکنالوجی کی دنیا 10 00:00:42.700 --> 00:00:46.800 کی جانی پہچانی شخصت اور ایکس کے سی ٹی او ایلون مسک۔ 11 00:00:47.467 --> 00:00:48.967 سازشی نظریات 12 00:00:49.000 --> 00:00:53.700 امریکی ریاست پینسلوینیا کے شہر بٹلر میں ٹرمپ کی ایک ریلی میں 13 00:00:53.700 --> 00:00:59.167 فائرنگ کے اس واقعے کے چند منٹ بعد ہی اس کی ویڈیو سوشل میڈیا پر شیئر کر دی گئی۔ 14 00:00:59.867 --> 00:01:05.200 اور ایسا امریکی سیکرٹ سروس، ایف بی آئی اور ٹرمپ کی صدارتی مہم سے جڑے 15 00:01:05.200 --> 00:01:09.867 حکام کی طرف سے کسی بھی سرکاری بیان سے بہت پہلے ہو چکا تھا۔ 16 00:01:10.277 --> 00:01:15.933 نتیجتاﹰ انٹرنیٹ پر، کسی ٹھوس اور مصدقہ معلومات سے ماورا، سازشی نظریات 17 00:01:16.066 --> 00:01:19.980 گمراہ کن دعووں اور جھوٹے الزامات کا سیلاب امڈ آیا۔ 18 00:01:20.000 --> 00:01:26.900 دو نظریات نے خاص طور پر بہت توجہ حاصل کی: ایک میں دعویٰ کیا گیا کہ ٹرمپ اور 19 00:01:26.900 --> 00:01:32.600 ان کی انتخابی مہم نے خود ہی یہ حملہ اسٹیج کرایا، تاکہ امریکی رائے دہندگان 20 00:01:32.600 --> 00:01:35.080 کی ہمدردی اور حمایت حاصل کی جا سکے۔ 21 00:01:35.100 --> 00:01:40.500 دیگر کے مطابق ٹرمپ کو گولی مارنے کا حکم وائٹ ہاؤس کی طرف سے دیا گیا اور 22 00:01:40.500 --> 00:01:45.233 ٹرمپ کی حفاظت کو یقینی بناتے وقت سیکرٹ سروس کی طرف سے جان بوجھ کر سستی 23 00:01:45.233 --> 00:01:46.390 کا مظاہرہ کیا گیا۔ 24 00:01:46.400 --> 00:01:50.600 ان میں سے کسی بھی نظریے کا کوئی ثبوت موجود نہیں ہے۔ 25 00:01:50.600 --> 00:01:56.000 لیکن ان بے بنیاد بیانیوں سے یہ بات کھل کر سامنے آ گئی ہے کہ سوشل میڈیا 26 00:01:56.000 --> 00:01:59.600 معاشروں کو کیسے مزید پولرائز کر سکتا ہے۔ 27 00:02:00.000 --> 00:02:05.200 اس کے علاوہ ایکس، انسٹا اور ان جیسے دیگر سوشل میڈیا پلیٹ فارمز پر ہونے 28 00:02:05.200 --> 00:02:09.000 والی بحث حقائق کی بجائے جذبات پر مبنی ہوتی ہے۔ 29 00:02:09.000 --> 00:02:14.800 اور اس پر مستزاد، مصنوعی ذہانت سے تیار کردہ مواد کے سبب ہمارے لیے خود 30 00:02:14.810 --> 00:02:20.600 کو غلط معلومات کے جال میں پھنسنے سے بچانا مشکل سے مشکل تر ہوتا جا رہا ہے۔ 31 00:02:20.600 --> 00:02:25.567 صرف ایک مثال: ایکس پر گردش کرنے والی اس تبدیل شدہ تصویر میں 32 00:02:25.567 --> 00:02:28.400 سکیورٹی اسٹاف مسکرا رہا ہے۔ 33 00:02:28.700 --> 00:02:30.267 جلتی پر تیل کا کام 34 00:02:30.532 --> 00:02:35.500 اس کے علاوہ، پہلے سے آن لائن جاری بحث پر اثر انداز ہونے 35 00:02:35.500 --> 00:02:39.600 کے لیے بعض لوگ اپنے سوشل میڈیا اکاؤنٹس کا استعمال کر رہے ہیں۔ 36 00:02:39.600 --> 00:02:43.867 مثال کے طور پر ایلون مسک، جو سوشل پلیٹ فارم ایکس کے مالک ہیں۔ 37 00:02:45.100 --> 00:02:50.200 انہوں نے اپنی ایک ٹویٹ میں ٹرمپ کی مکمل حمایت کی، جس نے ایکس پر اس موضوع 38 00:02:50.200 --> 00:02:52.990 پر کی گئی تمام پوسٹس سے زیادہ توجہ حاصل کی۔ 39 00:02:53.000 --> 00:02:56.600 ساتھ ہی انہوں نے ایک سازشی نظریے کے بھی حق میں بات کی۔ 40 00:02:56.600 --> 00:02:59.900 بے بنیاد دعوے پھیلانے والوں میں کچھ سیاست دان بھی شامل ہو گئے۔ 41 00:02:59.900 --> 00:03:04.580 جیسے ریپبلکن سیاست دان میجوری ٹیلر جو اور ٹینیسی کے 42 00:03:04.590 --> 00:03:07.290 ڈیموکریٹ انتونیو پارکنسن۔ 43 00:03:07.300 --> 00:03:12.000 سچ بات تو یہ ہے کہ سیاسی منظرنامے کے دونوں اطراف کے سیاست دانوں کی اکثریت 44 00:03:12.000 --> 00:03:14.490 نے اس حملے کی مذمت کی ہے۔ 45 00:03:14.500 --> 00:03:19.600 لیکن بدقسمتی سے، سوشل میڈیا کے الگوردھم کی وجہ سے اس بات کے امکانات 46 00:03:19.600 --> 00:03:25.100 زیادہ ہیں کہ ہمیں اپنی فیڈ میں پولرائزنگ اور اشتعال انگیز مواد ہی 47 00:03:25.100 --> 00:03:26.389 زیادہ دکھائی دے گا۔ 48 00:03:26.400 --> 00:03:30.050 سوشل میڈیا نے سیاسی بحث کو کیسے تبدیل کیا؟ 49 00:03:30.200 --> 00:03:36.140 سادہ الفاظ میں: سوشل میڈیا الگوردھم ہمیں زیادہ سے زیادہ وقت تک سوشل پلیٹ 50 00:03:36.150 --> 00:03:41.400 فارم سے جوڑے رکھنے کے لیے ڈیزائن کیے گئے ہیں اس کے حصول کے لیے ایک چیز خاص 51 00:03:41.400 --> 00:03:43.167 طور پر اہم ہے انٹرایکشن۔ 52 00:03:43.167 --> 00:03:47.900 سیاسی سیاق و سباق میں، خاص طور پر یہ چیز تشویش ناک ہے۔ 53 00:03:47.900 --> 00:03:52.533 کیونکہ جب بات صارفین کی توجہ کی آتی ہے تو جذبات حقائق کو پیچھے 54 00:03:52.667 --> 00:03:53.900 چھوڑ دیتے ہیں۔ 55 00:03:53.900 --> 00:03:58.533 ایلون مسک کی ایک جذباتی تصویر، جیسے مثال کے طور پر یہ، سابق امریکی صدر 56 00:03:58.567 --> 00:04:06.440 براک اوباما کی جانب سے کی جانے والی اس قابل غور ٹوئیٹ سے کہیں زیادہ رد عمل 57 00:04:06.440 --> 00:04:08.490 اور تبصرے حاصل کرتی ہے۔ 58 00:04:08.500 --> 00:04:13.610 پولرائزنگ مواد، اور خاص طور پر سیاسی نوعیت کا، ایک ایسی چیز ہے جسے 59 00:04:13.620 --> 00:04:17.200 الگوردھم ہماری فیڈ میں زیادہ سے زیادہ سامنے لاتے ہیں۔ 60 00:04:17.200 --> 00:04:22.800 کچھ پلیٹ فارمز نے ان اثرات سے نٹمنے کے لیے کچھ اقدامات کیے ہیں، جیسے 61 00:04:22.800 --> 00:04:28.200 انسٹاگرام نے فروری میں کہا تھا کہ وہ اب ان اکاؤنٹس سے ’سیاست کے بارے میں 62 00:04:28.200 --> 00:04:33.000 مواد کو آگے تجویز نہیں کرے گا‘ جنہیں صارفین پہلے سے فالو نہیں کرتے۔ 63 00:04:33.000 --> 00:04:38.300 دوسری جانب سوشل میڈیا کی بڑی کمپنیوں نے، جن میں ایکس، میٹا اور یوٹیوب بھی 64 00:04:38.300 --> 00:04:43.500 شامل ہیں، غلط سیاسی معلومات کا راستہ روکنے والے ٹولز کو کمزور یا مکمل طور 65 00:04:43.500 --> 00:04:45.190 پر ختم کر دیا ہے۔ 66 00:04:45.200 --> 00:04:51.900 نتیجتاﹰ غلط معلومات، سازشی نظریات اور اشتعال انگیزی، آن لائن زیادہ سے زیادہ 67 00:04:52.010 --> 00:04:53.890 نمایاں ہوتے جا رہے ہیں۔ 68 00:04:53.900 --> 00:04:56.790 اس صورتحال میں ہم کیا کر سکتے ہیں؟ 69 00:04:56.800 --> 00:05:02.300 ہم آن لائن جو کچھ بھی دیکھتے ہیں اس پر مِن وعن یقین کرنے کے بجائے، ہمیں 70 00:05:02.300 --> 00:05:05.089 میڈیا کے استعمال کے معاملے میں ہوشیار ہونا ہو گا۔ 71 00:05:05.110 --> 00:05:09.920 سب سے پہلے تو یہ چیک کریں کہ معلومات جاری کہاں سے ہوئی ہیں۔ 72 00:05:09.930 --> 00:05:14.700 پھر، یہ دیکھیے کہ کوئی اور قابل اعتماد ذریعہ بھی وہی بات کہہ رہا ہے۔ 73 00:05:14.700 --> 00:05:20.000 اگر یہ خبر درست ہے، تو دیگر ذرائع بھی ممکنہ طور پر اس کی تصدیق کریں گے۔ 74 00:05:20.000 --> 00:05:24.166 اس کے علاوہ یہ بھی دیکھیں کہ رپورٹ میں کیے گئے دعوے کا کوئی ثبوت بھی 75 00:05:24.267 --> 00:05:25.690 فراہم کیا گیا ہے۔ 76 00:05:25.700 --> 00:05:30.500 اگر ایسا نہیں ہے تو یہ زیادہ بہتر ہو گا کہ سنسنی خیز کہانیوں کے حوالے سے 77 00:05:30.500 --> 00:05:31.990 محتاط رہا جائے۔ 78 00:05:32.000 --> 00:05:37.533 ایسے دعووں کی تصدیق کے لیے آپ آن لائن مختلف فیکٹ چیکنگ ٹولز کا بھی استعمال 79 00:05:37.533 --> 00:05:38.790 کر سکتے ہیں۔ 80 00:05:38.800 --> 00:05:42.100 جلد ہی آپ سے دوبارہ ملاقات ہوتی ہے۔