سوشل میڈیا، سیاست اور منافرت:
بھارت میں میٹا کے ہاتھوں مسلم مخالف بیانیے کا پھیلاؤ
(قسط چہارم)
ازقلم : ڈاکٹر محمّد عظیم الدین
گزشتہ سے پیوستہ ….
6. راز افشا کرنے والے (Whistleblower) انکشافات اور داخلی دستاویزات:
فیس بک پیپرز اور فرانسس ہوگن کے انکشافات کا تفصیلی تجزیہ:
بھارت میں مذہبی منافرت کو ہوا دینے میں فیس بک کے کردار سے متعلق سب سے زیادہ جامع اور گہری بصیرت "فیس بک پیپرز” کے ذریعے حاصل ہوئی، جو 2021ء میں فیس بک کی سابق ملازمہ فرانسس ہوگن کی جانب سے افشا کی گئی داخلی دستاویزات کا ایک وسیع ذخیرہ تھا۔ ان دستاویزات نے اس امر سے پردہ اٹھایا کہ کمپنی اپنے پلیٹ فارم کے ذریعے پھیلنے والے منفی اثرات سے کس حد تک باخبر تھی اور بالخصوص بھارت جیسے امریکہ سے باہر کے بازاروں میں ان سے مؤثر طور پر نمٹنے میں کس طرح ناکام رہی۔ ہوگن، جنہوں نے مئی 2021ء میں کمپنی سے علیحدگی سے قبل فیس بک کی شہری گمراہ کن معلومات (civic misinformation) سے نمٹنے والی ٹیم میں بطور پروڈکٹ مینیجر خدمات انجام دی تھیں، نے ہزاروں صفحات پر مشتمل داخلی تحقیقات، پریزنٹیشنز، بحث مباحثے کے ریکارڈ، اور پالیسی دستاویزات امریکی سیکیورٹیز اینڈ ایکسچینج کمیشن کو فراہم کیں۔ یہ دستاویزات بعد ازاں امریکی کانگریس اور مؤقر خبر رساں اداروں کے ایک کنسورشیم کے ساتھ بھی شیئر کی گئیں، جس کے نتیجے میں عالمی سطح پر فیس بک کے طریقہ کار سے متعلق تہلکہ خیز رپورٹس کا ایک طویل سلسلہ شروع ہوا۔ بھارت سے متعلق دستاویزات نے یہ ثابت کیا کہ فیس بک نے اپنے پلیٹ فارم کے ذریعے مسلمانوں کو نشانہ بنانے والی نفرت انگیز تقاریر اور گمراہ کن معلومات کے پھیلاؤ میں اپنے کردار کو قلمبند کرنے کے لیے وسیع پیمانے پر داخلی تحقیق کی تھی۔ اس تحقیق نے مستقل طور پر یہ ظاہر کیا کہ کمپنی کے الگورتھم اور مواد تجویز کرنے والے نظام (recommendation systems) تفرقہ انگیز مواد کو بڑھاوا دے رہے تھے، بھارتی زبانوں کے لیے اس کے مواد کی نگرانی کے وسائل شدید طور پر ناکافی تھے، اور سیاسی مصلحتیں اکثر بااثر شخصیات کے اکاؤنٹس کے خلاف پالیسیوں کے نفاذ میں آڑے آتی تھیں۔ امریکی کانگریس کے سامنے اپنی گواہی اور بعد ازاں دیے گئے انٹرویوز میں، ہوگن نے خاص طور پر بھارت میں فیس بک کی سنگین کوتاہیوں کو اجاگر کیا۔ انہوں نے واضح کیا کہ فیس بک اس حقیقت سے بخوبی آگاہ تھا کہ اس کے الگورتھم "خوف و ہراس پھیلانے والے، مسلم مخالف بیانیوں” کو فروغ دے رہے ہیں، لیکن اس نے اس سنگین مسئلے سے نمٹنے کے لیے مناسب وسائل مختص کرنے سے دانستہ گریز کیا۔ ہوگن نے اس نکتے پر زور دیا کہ فیس بک کے صارف کی دلچسپی (engagement) پر مبنی درجہ بندی کے نظام نے فطرتاً تفرقہ انگیز مواد کو تقویت بخشی، جس کے بھارت جیسے پہلے سے مذہبی کشیدگی کے شکار معاشروں میں بالخصوص تباہ کن نتائج برآمد ہوئے۔ ایک اور راز افشا کرنے والی شخصیت، سوفی ڑانگ، جنہوں نے فیس بک میں بطور ڈیٹا سائنٹسٹ کام کیا تھا، نے بھی بھارت میں سیاسی مقاصد کے لیے ہونے والی ہیرا پھیری سے نمٹنے میں کمپنی کی ناکامی کے ٹھوس ثبوت فراہم کیے۔ ڑانگ نے انکشاف کیا کہ انہوں نے ایسے جعلی اکاؤنٹس کے نیٹ ورکس کی نشاندہی کی تھی جو بی جے پی سمیت مختلف سیاسی جماعتوں کے رہنماؤں کی مقبولیت کو مصنوعی طور پر بڑھانے کے لیے استعمال کیے جا رہے تھے۔ داخلی سطح پر ان نیٹ ورکس کی نشاندہی کرنے کے باوجود، ان میں سے بیشتر ان کے بقول، امریکہ اور یورپ سے باہر سیاسی ہیرا پھیری سے نمٹنے کے لیے "ادارہ جاتی عزم کے فقدان” کے باعث، بدستور فعال رہے۔
داخلی تحقیق جو فیس بک کی مسئلے سے آگاہی کو ظاہر کرتی ہے:
فیس بک پیپرز میں شامل سب سے زیادہ انکشاف انگیز دستاویزات میں سے ایک فروری 2019ء کا وہ میمو تھا جس کا عنوان تھا "ایک بھارتی آزمائشی صارف کا پولرائزنگ، قوم پرست پیغامات کے سمندر میں اترنا۔” اس تحقیقی تجربے کے تحت بھارت میں ایک نیا آزمائشی اکاؤنٹ (test account) بنایا گیا جو صرف فیس بک کے اپنے الگورتھم کی جانب سے تجویز کردہ پیجز اور گروپس کو ہی فالو کرتا تھا۔ محض تین ہفتوں کے قلیل عرصے میں، اس آزمائشی صارف کی نیوز فیڈ "پولرائزنگ قوم پرست مواد، گمراہ کن معلومات، اور تشدد و خونریزی پر مبنی مواد کی تقریباً مستقل یلغار” میں تبدیل ہو گئی، جس میں وسیع پیمانے پر مسلم مخالف نفرت انگیز بیانات بھی شامل تھے۔ تحقیق کار نے اپنی رپورٹ میں درج کیا کہ "گزشتہ تین ہفتوں کے دوران، میں نے اتنی لاشوں کی تصاویر دیکھی ہیں جتنی اپنی پوری زندگی میں مجموعی طور پر مشاہدہ نہیں کی تھیں۔” یہ آزمائشی اکاؤنٹ جعلی خبروں، پاکستان مخالف زہریلے پروپیگنڈے، اور اسلاموفوبیا پر مبنی مواد سے اٹا پڑا تھا، جس میں سے بیشتر فیس بک کے اپنے کمیونٹی معیارات کی صریح خلاف ورزی کرتا تھا لیکن اس کے باوجود پلیٹ فارم پر موجود رہا۔ تحقیق کار نے یہ سوال اٹھا کر اپنی رپورٹ کا اختتام کیا کہ کیا فیس بک پر "تجویز کردہ مواد کے نتیجے میں پیدا ہونے والے سالمیت کو نقصان پہنچانے والے عوامل کو روکنے کی کوئی اضافی ذمہ داری” عائد ہوتی ہے؟ – ایک ایسا سوال جس کا ٹھوس پالیسی تبدیلیوں کی صورت میں کوئی خاطر خواہ جواب نہیں دیا گیا۔ 2020ء کی ایک اور داخلی تحقیق نے اس امر کا جائزہ لیا کہ کس طرح فیس بک کے مواد تجویز کرنے والے نظاموں نے بھارت میں قوم پرست گروہوں کی جانب سے پھیلائے جانے والے "خوف و ہراس اور مسلم مخالف بیانیوں” کے فروغ میں کردار ادا کیا۔ تحقیق سے یہ معلوم ہوا کہ بہت سے صارفین انتہا پسند گروہوں میں محض اس لیے شامل ہوئے کیونکہ فیس بک کے الگورتھم نے انہیں ان گروہوں کی تجویز دی تھی۔ تحقیق کے مطابق، "تمام انتہا پسند گروہوں میں ہونے والی 64 فیصد شمولیتیں ہمارے تجویز کردہ ٹولز کی مرہونِ منت ہیں،” جن میں "Groups You Should Join” اور "Discover” جیسے فیچرز خاص طور پر مسئلے کا باعث پائے گئے۔ ایک علیحدہ داخلی رپورٹ میں اس امر کا برملا اعتراف کیا گیا کہ "سیاسی حساسیتیں” فیس بک کو بعض اکاؤنٹس، بالخصوص حکمران جماعت سے منسلک اکاؤنٹس، کے خلاف کارروائی کرنے سے روکتی ہیں۔ رپورٹ میں مزید کہا گیا کہ "بھارت کی حکمران جماعت کو ناراض کرنے کا خوف” پالیسیوں کے "منتخب اطلاق” کا باعث بنا، جس سے یہ تاثر قوی ہوا کہ فیس بک نفرت انگیز مواد کے فروغ میں "بالواسطہ طور پر شریکِ جرم” ہے۔ یہ دستاویز براہِ راست کمپنی کے ان عوامی دعوؤں کی نفی کرتی تھی کہ وہ سیاسی وابستگیوں سے بالاتر ہو کر اپنی پالیسیاں نافذ کرتی ہے۔ شاید سب سے زیادہ چونکا دینے والا انکشاف وہ داخلی جائزہ تھا جس میں بھارت کو سماجی تشدد کے خطرے کے اعتبار سے "ٹئیر 0” ملک قرار دیا گیا تھا، یعنی اسے میانمار اور سری لنکا جیسے ممالک کے ساتھ کمپنی کے سب سے زیادہ خطرے والے زمرے میں رکھا گیا تھا، جہاں فیس بک ماضی میں نسلی تشدد کو ہوا دینے میں اپنے کردار کا اعتراف کر چکا تھا۔ اس درجہ بندی کے باوجود، دستاویزات سے یہ عیاں ہوا کہ فیس بک نے بھارت میں ان سنگین خطرات کو کم کرنے کے لیے قطعی ناکافی وسائل مختص کیے۔
آزمائشی صارف کے تجربات جو الگورتھم کے ذریعے تفرقہ انگیز مواد کے پھیلاؤ کو آشکار کرتے ہیں:
فروری 2019ء میں کیا گیا آزمائشی صارف کا تجربہ اس امر کا سب سے واضح اور ٹھوس ثبوت فراہم کرتا ہے کہ کس طرح فیس بک کے الگورتھم نے بھارت میں تفرقہ انگیز اور مسلم مخالف مواد کو غیر معمولی طور پر بڑھاوا دیا۔ یہ تجربہ اس لیے بھی خاص طور پر چشم کشا تھا کیونکہ اس نے فیس بک کے مواد تجویز کرنے والے نظاموں کے کردار کو بالکل الگ تھلگ کر کے جانچا تھا؛ ایک نیا اکاؤنٹ بنا کر جو صرف پلیٹ فارم کی جانب سے تجویز کردہ پیجز اور گروپس کو ہی فالو کرتا تھا۔ یہ تجربہ عین اس وقت کیا گیا جب کشمیر میں ہونے والے ایک خودکش حملے، جس میں 40 سے زائد بھارتی فوجی ہلاک ہوئے تھے، کے بعد بھارت اور پاکستان کے مابین کشیدگی عروج پر تھی۔ تحقیق کار نے یہ مشاہدہ کیا کہ فیس بک کے الگورتھم نے نہایت تیزی سے آزمائشی صارف کو زیادہ سے زیادہ شدت پسندانہ قوم پرست مواد کی جانب دھکیل دیا، جس میں "تنازعے، نفرت اور تشدد کی حوصلہ افزائی کرنے والے مواد کی تقریباً مستقل یلغار” شامل تھی۔ فیس بک کی جانب سے تجویز کردہ بظاہر بے ضرر نظر آنے والے گروپ بھی تیزی سے نفرت انگیز مواد اور گمراہ کن معلومات پھیلانے کا ذریعہ بن گئے۔ مثال کے طور پر، ایک گروپ جو ابتدائی طور پر بھارتی ثقافت پر مرکوز تھا، دیکھتے ہی دیکھتے مسلمانوں اور پاکستانیوں کے خلاف تشدد کا مطالبہ کرنے والا مواد شیئر کرنے لگا۔ تحقیق کار نے یہ بھی نوٹ کیا کہ فیس بک کا "Popular Across Facebook” فیچر بھارت-پاکستان تنازعے سے متعلق غیر تصدیق شدہ، اشتعال انگیز مواد کا ایک لامتناہی سلسلہ دکھاتا تھا، جس میں ترمیم شدہ تصاویر اور حملوں سے متعلق جھوٹے دعوے بھی شامل تھے۔ 2020ء میں کیے گئے ایک اور داخلی تجربے نے اس بات کا جائزہ لیا کہ کس طرح فیس بک کا "Related Pages” فیچر بھارت میں سماجی پولرائزیشن کو بڑھاوا دینے میں کردار ادا کرتا ہے۔ تحقیق سے یہ معلوم ہوا کہ جو صارف مرکزی دھارے کے نیوز پیجز کو فالو کرتے تھے، انہیں اکثر و بیشتر زیادہ متعصب اور شدت پسندانہ نظریات رکھنے والے پیجز تجویز کیے جاتے تھے۔ دائیں بازو کے بھارتی میڈیا کو فالو کرنے والے صارفین کے لیے، یہ تجاویز اکثر انہیں ان پیجز کی طرف لے جاتی تھیں جو مسلم مخالف مواد اور گمراہ کن معلومات پھیلانے کے لیے بدنام تھے۔ ان تجربات نے یہ ثابت کر دیا کہ فیس بک کے بنیادی، صارف کی دلچسپی (engagement) پر مبنی، مواد تجویز کرنے والے نظام، بھارت جیسے حساس تناظر میں نفرت انگیز مواد کے پھیلاؤ کو روکنے کی کوششوں سے بنیادی طور پر متصادم تھے۔ صارف کی دلچسپی کو اولیت دے کر، الگورتھم نے فطرتاً ایسے سنسنی خیز اور تفرقہ انگیز مواد کو فروغ دیا جو شدید جذباتی ردِ عمل پیدا کرتا تھا – یعنی عین اسی قسم کا مواد جو اکثر مسلمانوں اور دیگر اقلیتوں کو بدنام کرنے اور ان کے خلاف نفرت پھیلانے کا باعث بنتا تھا۔
کمپنی کی جانب سے ترقی اور صارف دلچسپی کو تحفظ پر فوقیت دینا:
فیس بک پیپرز نے کمپنی کے اس مستقل رویے کو بے نقاب کیا جس کے تحت ترقی کے اہداف اور صارف دلچسپی کے پیمانوں کو تحفظ سے متعلق خدشات پر فوقیت دی جاتی رہی، بالخصوص امریکہ سے باہر کی منڈیوں میں۔ یہ رویہ بھارت میں خاص طور پر نمایاں تھا، جہاں فیس بک کا سب سے بڑا صارف اڈہ ایک انتہائی اہم ترقیاتی منڈی کی حیثیت رکھتا تھا۔ داخلی دستاویزات سے یہ عیاں ہوا کہ فیس بک نے گمراہ کن معلومات کی درجہ بندی کے لیے مختص اپنے عالمی بجٹ کا محض 13 فیصد امریکہ سے باہر کے آپریشنز کے لیے وقف کیا، حالانکہ ان خطوں میں اس کے 90 فیصد صارفین مقیم تھے۔ بھارت، اپنے وسیع صارف اڈے اور پیچیدہ سماجی و سیاسی ماحول کے باوجود، مؤثر مواد کی نگرانی کے لیے قطعی ناکافی وسائل حاصل کر سکا۔ کمپنی کی ترقی کے پیمانوں پر غیر معمولی توجہ نے ایسے منفی محرکات (perverse incentives) پیدا کیے جنہوں نے تحفظ کو یقینی بنانے کی کوششوں کی بنیادیں ہلا دیں۔ ایک داخلی رپورٹ میں نشاندہی کی گئی کہ صارف کی دلچسپی بڑھانے کی ذمہ دار ٹیمیں، سالمیت اور تحفظ کے امور پر کام کرنے والی ٹیموں کے مقابلے میں کہیں زیادہ بڑی اور بہتر وسائل سے لیس تھیں۔ ایسی مصنوعات کی تبدیلیاں جو ممکنہ طور پر قابلِ اعتراض مواد کو کم کر سکتی تھیں لیکن ساتھ ہی صارف کی دلچسپی کو بھی گھٹا سکتی تھیں، معمول کے مطابق یا تو مسترد کر دی جاتیں یا غیر معینہ مدت کے لیے ملتوی کر دی جاتیں۔ یہ ترجیحی رویہ کمپنی کے بھارت میں زبانوں کی کوریج سے متعلق اختیار کردہ مؤقف میں خاص طور پر عیاں تھا۔ باوجود اس کے کہ بھارت میں 22 سرکاری طور پر تسلیم شدہ زبانیں رائج ہیں، فیس بک کے نفرت انگیز مواد کی نشاندہی کرنے والے الگورتھم بنیادی طور پر انگریزی مواد کے لیے تیار کیے گئے تھے۔ فرانسس ہوگن کی افشا کردہ دستاویزات کے مطابق، فیس بک کے خودکار نظام ہندی میں صرف 15 فیصد نفرت انگیز مواد کی نشاندہی کر پاتے تھے، جبکہ انگریزی میں یہ شرح 80 فیصد تھی۔ اس واضح تفاوت نے ایک ایسی خطرناک صورتِ حال پیدا کی جہاں بھارتی زبانوں میں نفرت انگیز مواد بڑی حد تک بغیر کسی مؤثر روک تھام کے پھیل سکتا تھا۔ بھارتی زبانوں میں مہارت رکھنے والے انسانی ناظمین کی شدید کمی نے اس مسئلے کو مزید گھمبیر بنا دیا۔ 2019ء میں، فیس بک کے پاس ہندی مواد کے لیے محض 33 ناظمین تھے، جبکہ اس کے ہندی بولنے والے صارفین کی تعداد 10 کروڑ سے تجاوز کر چکی تھی۔ دیگر متعدد بھارتی زبانوں کے لیے، یا تو کوئی مخصوص ناظمین سرے سے موجود ہی نہیں تھے، یا ان کی تعداد مواد کے بے پناہ حجم سے نمٹنے کے لیے قطعی ناکافی تھی۔ شاید سب سے زیادہ قابلِ توجہ بات یہ ہے کہ داخلی خط و کتابت سے یہ انکشاف ہوا کہ فیس بک کے اعلیٰ عہدیداران ان مسائل سے پوری طرح آگاہ تھے لیکن انہیں مؤثر طریقے سے حل کرنے کے لیے وسائل مختص کرنے میں دانستہ طور پر ناکام رہے۔ 2019ء کی ایک ای میل کے تبادلے میں، بھارت میں نفرت انگیز مواد کے پھیلاؤ پر بحث کرنے والے ملازمین کو ایک سینئر ایگزیکٹو کی جانب سے یہ ہدایت دی گئی کہ اگرچہ مسائل سنگین نوعیت کے ہیں، تاہم کمپنی کو "اہم ترقیاتی ترجیحات پر اپنی توجہ مرکوز رکھنے” کی ضرورت ہے۔ دستاویزات سے یہ بھی عیاں ہوا کہ بھارت میں فیس بک کی پبلک پالیسی ٹیم، جس کی سربراہی 2020ء میں ان کے استعفے تک آنکھی داس کر رہی تھیں، نے بارہا ایسے حفاظتی اقدامات کو روکنے کے لیے مداخلت کی جو حکمران بی جے پی کی ناراضگی کا باعث بن سکتے تھے۔ متعدد مواقع پر، داس نے ممکنہ کاروباری خطرات کا حوالہ دیتے ہوئے، پالیسیوں کی واضح خلاف ورزیوں کے باوجود، بی جے پی سے وابستہ اکاؤنٹس پر نفرت انگیز مواد سے متعلق قوانین لاگو کرنے کی مخالفت کی۔ اس طرزِ عمل سے یہ قیاس قوی ہوتا ہے کہ بھارت میں فیس بک کی ترقی کی حکمتِ عملی، واضح طور پر حکمران جماعت کے ساتھ خوشگوار تعلقات برقرار رکھنے سے منسلک تھی، چاہے اس کی قیمت مسلمانوں کو ہدف بنانے والے نفرت انگیز مواد کے فروغ کی صورت میں ہی کیوں نہ ادا کرنی پڑے۔ (جاری ….)
——