Skip to content
سوشل میڈیا، سیاست اور منافرت:
بھارت میں میٹا کے ہاتھوں مسلم مخالف بیانیے کا پھیلاؤ
(قسط پنجم )
ازقلم : ڈاکٹر محمّد عظیم الدین
———
گزشتہ سے پیوستہ ….
7. قانونی و ریگولیٹری جوابات
بھارتی حکومت کی جانب سے سوشل میڈیا کو ضابطے میں لانے کی کاوشیں:
فیس بک جیسے سوشل میڈیا پلیٹ فارمز کو ضابطے میں لانے کے ضمن میں بھارتی حکومت کا نقطہ نظر نریندر مودی کے دورِ اقتدار میں نمایاں طور پر تبدیل ہوا ہے، جو ایک طرف نقصان دہ مواد سے متعلق جائز خدشات اور دوسری طرف آن لائن مکالمے کو قابو میں لانے کی تشویشناک کوششوں، دونوں کی عکاسی کرتا ہے۔ ریگولیٹری منظرنامے کی تشکیل میں عوامی تحفظ کے مسائل، سیاسی مفادات، اور ڈیجیٹل دائرہ کار پر ریاستی حاکمیت قائم کرنے کی حکومت کی بڑھتی ہوئی خواہش کے پیچیدہ باہمی عوامل کارفرما رہے ہیں۔ فروری 2021ء میں، الیکٹرانکس اور انفارمیشن ٹیکنالوجی کی وزارت نے انفارمیشن ٹیکنالوجی (انٹرمیڈیری گائیڈ لائنز اینڈ ڈیجیٹل میڈیا ایتھکس کوڈ) رولز 2021 متعارف کرائے، جو 2000ء کے آئی ٹی ایکٹ کے بعد سے بھارت کے ڈیجیٹل قوانین میں سب سے بڑی اور اہم ترین تبدیلی کی حیثیت رکھتے ہیں۔ ان قوانین نے "اہم سوشل میڈیا انٹرمیڈیریز” (یعنی 5 ملین سے زائد صارفین رکھنے والے پلیٹ فارمز) پر نئی اور کڑی ذمہ داریاں عائد کیں، جن میں یہ امور شامل تھے:
• بھارت میں مقیم تعمیل افسران (compliance officers) کا تقرر، جنہیں پلیٹ فارمز پر موجود مواد کے لیے ذاتی طور پر جوابدہ ٹھہرایا جا سکتا ہے۔
• حکومت کی جانب سے مواد ہٹانے کی درخواستوں (takedown requests) پر 36 گھنٹے کے اندر عمل درآمد کو یقینی بنانے کے لیے ایک مؤثر نظام کا قیام۔
• بعض مخصوص اقسام کے مواد کی فعال طور پر نشاندہی کرنے اور انہیں ہٹانے کے لیے خودکار نظاموں (automated tools) کا نفاذ۔
• پیغام رسانی کی خدمات (messaging services) کے لیے، پیغامات کے "اولین مْرسل” (first originator) کی شناخت ممکن بنانے والی ٹریس ایبلٹی (traceability) کی شرائط کا نفاذ۔
اگرچہ حکومت نے ان ضوابط کو نفرت انگیز مواد سمیت دیگر نقصانات سے نمٹنے کے لیے ناگزیر قرار دیا، تاہم ناقدین نے یہ دلیل پیش کی کہ ان قوانین نے درحقیقت آن لائن اظہارِ رائے پر حکومتی گرفت کو مضبوط کرنے کے لیے نئے دروازے کھول دیے ہیں۔ بالخصوص ٹریس ایبلٹی کی شرط نے صارفین کی نجی معلومات کے تحفظ (privacy) اور پیغام رسانی کی خفیہ کاری (encryption) کے حوالے سے سنگین خدشات کو جنم دیا، اور ماہرین نے خبردار کیا کہ یہ تمام صارفین کے لیے محفوظ مواصلات کی بنیادوں کو کمزور کر سکتا ہے۔ 2022ء میں، حکومت نے ان قوانین میں مزید ترامیم تجویز کیں، جن میں حکومت کی جانب سے مقرر کردہ اپیل کمیٹیوں کا قیام بھی شامل تھا، جنہیں پلیٹ فارمز کے مواد کی نگرانی سے متعلق فیصلوں کو کالعدم قرار دینے کا اختیار حاصل ہونا تھا۔ اس اقدام نے مؤثر طور پر حکومتی اداروں کو یہ حتمی اختیار تفویض کر دیا کہ کون سا مواد آن لائن رہنا چاہیے اور کون سا نہیں، جس سے مواد کی نگرانی کے عمل میں سیاسی مداخلت کے سنگین خدشات پیدا ہوئے۔ اس تمام عرصے کے دوران، حکومت نے مواد ہٹانے کی درخواستیں دینے کے لیے موجودہ قانونی دفعات کا بھی بے دریغ استعمال کیا۔ فیس بک کی اپنی شفافیت رپورٹس کے مطابق، 2014ء سے 2025ء کے درمیان، حکومت کی جانب سے فیس بک سے مواد ہٹانے کی درخواستوں کی تعداد میں 1,200 فیصد سے زائد کا ہوشربا اضافہ دیکھنے میں آیا۔ ان میں سے بیشتر درخواستیں حکومت یا بی جے پی رہنماؤں پر تنقید کرنے والے مواد کو ہدف بناتی تھیں، جس سے یہ سوال پیدا ہوا کہ آیا ریگولیٹری اختیارات حقیقی نقصان دہ مواد سے نمٹنے کے بجائے سیاسی مخالفت کی آواز کو دبانے کے لیے استعمال کیے جا رہے ہیں۔
بین الاقوامی دباؤ اور تنقید:
بھارت میں نفرت انگیز مواد سے نمٹنے کے حوالے سے فیس بک کے طرزِ عمل نے، بالخصوص "فیس بک پیپرز” کے انکشافات کے بعد، شدید بین الاقوامی تنقید کو جنم دیا ہے۔ عالمی انسانی حقوق کی تنظیموں، اقوامِ متحدہ کے متعلقہ اداروں، اور بیرونی حکومتوں نے پلیٹ فارم کے مذہبی منافرت اور تشدد کو ہوا دینے میں کردار پر گہری تشویش کا اظہار کیا ہے۔ 2021ء میں، اقلیتی امور پر اقوامِ متحدہ کے خصوصی نمائندے نے ڈیجیٹل ماحول میں نفرت انگیز مواد سے متعلق اپنی رپورٹ میں خاص طور پر بھارت کی صورتِ حال کا ذکر کیا۔ رپورٹ میں نشاندہی کی گئی کہ "بڑے سوشل میڈیا پلیٹ فارمز بھارت میں مذہبی اقلیتوں، بالخصوص مسلمانوں، کو نشانہ بنانے والے نفرت انگیز مواد سے مناسب طور پر نمٹنے میں ناکام رہے ہیں” اور فیس بک جیسی کمپنیوں پر زور دیا گیا کہ وہ "انگریزی کے علاوہ دیگر زبانوں میں مواد کی نگرانی کے لیے قابلِ ذکر حد تک زیادہ وسائل مختص کریں۔” امریکی کانگریس نے بھی فرانسس ہوگن کی گواہی کے بعد اس معاملے میں گہری دلچسپی کا اظہار کیا۔ نومبر 2021ء میں، امریکی سینیٹرز کے ایک دو طرفہ گروپ نے مارک زکربرگ کو ایک خط ارسال کیا جس میں فیس بک کی "بھارت میں مسلم مخالف نفرت انگیز مواد سے حقیقی دنیا میں تشدد کے خطرے سے دوچار صارفین کو مناسب تحفظ فراہم کرنے میں بظاہر عدم دلچسپی” پر شدید تشویش کا اظہار کیا گیا۔ خط میں خاص طور پر بی جے پی سے وابستہ اکاؤنٹس کے ساتھ کمپنی کے ترجیحی سلوک کا حوالہ دیا گیا اور بھارت میں فیس بک کے مواد کی نگرانی کے طریقہ کار کے بارے میں تفصیلات طلب کی گئیں۔ بین الاقوامی سرمایہ کاروں نے بھی فیس بک کی جانب سے نفرت انگیز مواد سے نمٹنے کے انداز کو ایک ممکنہ کاروباری خطرے کے طور پر دیکھتے ہوئے خدشات کا اظہار کرنا شروع کر دیا۔ 2022ء میں، 800 بلین ڈالر سے زائد کے اثاثوں کی نمائندگی کرنے والے سرمایہ کاروں کے ایک اتحاد نے حصص یافتگان کی ایک تجویز (shareholder proposal) پیش کی جس میں مطالبہ کیا گیا کہ میٹا کا بورڈ آف ڈائریکٹرز بھارت جیسی منڈیوں میں انسانی حقوق پر کمپنی کے مرتب ہونے والے اثرات کا ایک آزادانہ جائزہ کروائے۔ اگرچہ یہ تجویز بالآخر منظور نہ ہو سکی، تاہم اسے 25 فیصد آزاد حصص یافتگان کی حمایت حاصل ہوئی، جو کمپنی کے طریقوں کے حوالے سے سرمایہ کاروں کی بڑھتی ہوئی تشویش کی عکاسی کرتی ہے۔ یورپی یونین کا ڈیجیٹل سروسز ایکٹ (Digital Services Act)، جو 2023ء میں نافذ العمل ہوا، نے بھی فیس بک کے عالمی آپریشنز پر بالواسطہ دباؤ ڈالا۔ اس قانون نے مواد کی نگرانی کی شفافیت اور خطرات کی تشخیص (risk assessment) پر سخت شرائط عائد کیں، جن کا اطلاق یورپی یونین سے باہر کے آپریشنز پر بھی ہوتا تھا۔ اگرچہ یہ قانون براہِ راست بھارت میں فیس بک کی سرگرمیوں کو منظم نہیں کرتا تھا، تاہم اس نے اعلیٰ عالمی معیارات قائم کیے جس کے باعث کمپنی کے لیے بھارت جیسی منڈیوں کے ساتھ روا رکھے جانے والے امتیازی سلوک کا جواز پیش کرنا مزید مشکل ہو گیا۔
سول سوسائٹی اور انسانی حقوق کی تنظیموں کی وکالت:
بھارتی سول سوسائٹی کی تنظیموں نے مذہبی منافرت کے فروغ میں فیس بک کے کردار کو دستاویز بند کرنے اور اسے چیلنج کرنے میں ایک انتہائی اہم اور قابلِ ستائش کردار ادا کیا ہے۔ انٹرنیٹ فریڈم فاؤنڈیشن، آلٹ نیوز، اور سینٹر فار انٹرنیٹ اینڈ سوسائٹی جیسی تنظیموں نے نہ صرف تحقیقی کام کیا، بلکہ قانونی چارہ جوئی بھی کی، اور پلیٹ فارم کی جانب سے زیادہ مضبوط احتساب کے نظام کا مطالبہ کیا۔ اگست 2020ء میں، وال اسٹریٹ جرنل کی جانب سے فیس بک کے بی جے پی سے وابستہ اکاؤنٹس کے ساتھ ترجیحی سلوک کے انکشافات کے بعد، 41 سول سوسائٹی تنظیموں کے ایک اتحاد نے فیس بک کو ایک کھلا خط تحریر کیا جس میں اس کے مواد کی نگرانی کے طریقوں میں زیادہ شفافیت اور جوابدہی کا مطالبہ کیا گیا۔ خط میں زبان کے لحاظ سے نفرت انگیز مواد ہٹائے جانے سے متعلق اعداد و شمار جاری کرنے، انسانی حقوق پر مرتب ہونے والے اثرات کا باقاعدہ جائزہ لینے، اور سیاسی وابستگی سے قطع نظر پالیسیوں کے یکساں نفاذ پر زور دیا گیا۔ انٹرنیٹ فریڈم فاؤنڈیشن نے معلومات تک رسائی کے حق (Right to Information – RTI) کے تحت متعدد درخواستیں دائر کیں تاکہ حکومت اور فیس بک کے مابین مواد ہٹانے سے متعلق ہونے والی خط و کتابت کی تفصیلات حاصل کی جا سکیں۔ ان کاوشوں نے انتظامیہ پر تنقید کرنے والے مواد کو ہٹانے کے لیے پلیٹ فارم پر حکومتی دباؤ کے رجحانات کو بے نقاب کیا، جبکہ حکومت نواز اکاؤنٹس سے پھیلنے والے نفرت انگیز مواد پر شاذ و نادر ہی کوئی کارروائی کی گئی۔ انسانی حقوق کی تنظیموں نے بھی مسلم مخالف مواد سے نمٹنے میں فیس بک کی ناکامی کے مخصوص واقعات کو تفصیل سے قلمبند کیا۔ 2022ء میں، ایمنسٹی انٹرنیشنل نے "نفرت کا میگافون: بھارت میں مسلم مخالف تشدد پھیلانے میں سوشل میڈیا کا کردار” کے عنوان سے ایک رپورٹ شائع کی، جس میں آن لائن نفرت انگیز مواد کے ایسے 100 واقعات کا تجزیہ کیا گیا جو مسلمانوں کے خلاف جسمانی تشدد کا پیش خیمہ بنے تھے۔ رپورٹ میں یہ تشویشناک انکشاف کیا گیا کہ فیس بک نے، پلیٹ فارم کے کمیونٹی معیارات کی صریح خلاف ورزی کے باوجود، انہیں رپورٹ کی گئی 79 فیصد پوسٹس کو ہٹانے میں ناکامی کا مظاہرہ کیا۔ ایکویلیٹی لیبز، جو جنوبی ایشیا میں انسانی حقوق کے لیے کام کرنے والی ایک تنظیم ہے، نے فیس بک پر نفرت انگیز مواد کے باقاعدہ آڈٹ کیے، اور مستقل طور پر یہ نتیجہ اخذ کیا کہ مسلم مخالف مواد کو، نفرت انگیز مواد کی دیگر اقسام کے مقابلے میں، ہٹائے جانے کا امکان کہیں کم تھا۔ ان کی 2023ء کی رپورٹ، "بے لگام نفرت: بھارت میں مذہبی اقلیتوں کے تحفظ میں میٹا کی ناکامی،” نے یہ دستاویز کیا کہ اسلاموفوبیا پر مبنی گالیوں پر مشتمل پوسٹس رپورٹ کیے جانے کے بعد اوسطاً 126 گھنٹے تک پلیٹ فارم پر موجود رہیں، جبکہ نفرت انگیز مواد کی دیگر اقسام کے لیے یہ اوسط دورانیہ محض 32 گھنٹے تھا۔ سول سوسائٹی کی ان مسلسل کوششوں نے فیس بک پر ساکھ کے حوالے سے شدید دباؤ (reputational pressure) ڈالا، جس سے کمپنی کو جانبداری اور ترجیحی سلوک کے الزامات کا عوامی سطح پر جواب دینے پر مجبور ہونا پڑا۔ اگرچہ کمپنی کے جوابات اکثر بنیادی مسائل کی جڑ تک پہنچنے میں ناکام رہے، تاہم اس مستقل وکالت نے مسئلے پر بین الاقوامی توجہ مبذول کرانے میں مدد کی اور ریگولیٹری کارروائی کے لیے فضا ہموار کی۔
ریگولیٹری چیلنجز پر میٹا کے ردِ عمل:
بھارت میں درپیش ریگولیٹری چیلنجز پر میٹا (فیس بک) کا ردِ عمل وقت کے ساتھ ساتھ تبدیل ہوتا رہا ہے، جو ایک طرف مسائل کو حل کرنے کی حقیقی کاوشوں اور دوسری طرف ایک کلیدی منڈی میں اپنے کاروباری مفادات کے تحفظ کی تزویراتی کوششوں، دونوں کی عکاسی کرتا ہے۔ کمپنی نے بڑھتے ہوئے سخت حکومتی ضوابط کی تعمیل کرنے اور اظہارِ رائے کی آزادی و صارف کے تحفظ کے حوالے سے اپنے عوامی موقف کو برقرار رکھنے کے درمیان ایک نہایت کٹھن اور نازک توازن قائم رکھنے کی کوشش کی ہے۔ 2021ء کے آئی ٹی قوانین کے نفاذ کے بعد، میٹا نے ابتدائی طور پر بعض دفعات، بالخصوص واٹس ایپ کے لیے ٹریس ایبلٹی کی شرط، پر اپنے تحفظات کا اظہار کیا، اور یہ دلیل دی کہ اس سے اینڈ ٹو اینڈ انکرپشن کا نظام کمزور پڑ جائے گا۔ تاہم، بالآخر کمپنی نے ضوابط کے بیشتر پہلوؤں کی تعمیل کی، مطلوبہ تعمیل افسران مقرر کیے اور مواد کے جائزے کے نئے طریقہ کار نافذ کیے۔ نفرت انگیز مواد سے نمٹنے کے حوالے سے ہونے والی تنقید کے جواب میں، میٹا نے بھارت میں مواد کی نگرانی کے نظام کو بہتر بنانے کے لیے کئی اقدامات کا اعلان کیا۔ 2021ء میں، کمپنی نے بھارتی زبانوں کے لیے اپنی مواد کا جائزہ لینے والی ٹیم کو وسعت دی اور ہندی و بنگالی مواد کے لیے اپنے خودکار نشاندہی کے نظام کو بہتر بنانے میں سرمایہ کاری کی۔ اس نے گمراہ کن معلومات سے نمٹنے کے لیے بھارت میں تیسرے فریق کی فیکٹ چیکنگ تنظیموں کے ساتھ اشتراکِ عمل بھی کیا۔ تاہم، داخلی دستاویزات نے یہ ظاہر کیا کہ یہ عوامی وعدے اکثر عملی طور پر ادھورے رہ جاتے تھے۔ زبانوں کی کوریج میں توسیع کے اعلان کے باوجود، فیس بک کے خودکار نظام کئی بھارتی زبانوں میں نفرت انگیز مواد کی نشاندہی میں بدستور ناقص کارکردگی کا مظاہرہ کرتے رہے۔ کمپنی کی اپنی شفافیت رپورٹس نے یہ ظاہر کیا کہ اس نے بھارت میں فی صارف حفاظتی اقدامات پر، امریکہ اور یورپ جیسی منڈیوں کے مقابلے میں، نمایاں طور پر کم رقم خرچ کی۔ میٹا کا سب سے اہم اور علامتی ردِ عمل اکتوبر 2020ء میں سامنے آیا، جب آنکھی داس نے، وال اسٹریٹ جرنل کی جانب سے بی جے پی سے وابستہ اکاؤنٹس کے خلاف کارروائی روکنے میں ان کے کردار کے بارے میں انکشافات کے بعد، بھارت کے لیے کمپنی کی پبلک پالیسی ڈائریکٹر کے عہدے سے استعفیٰ دے دیا۔ اگرچہ کمپنی نے ان کی رخصتی کو عوامی خدمت کے میدان میں دلچسپی کے حصول کے ذاتی فیصلے کے طور پر پیش کیا، تاہم اسے وسیع پیمانے پر کمپنی کے بھارت آپریشنز میں سیاسی جانبداری کے حوالے سے اٹھائے گئے سنگین خدشات کے اعتراف کے طور پر ہی دیکھا گیا۔ 2022ء میں، میٹا نے اپنی پہلی انسانی حقوق کی رپورٹ کے حصے کے طور پر بھارت پر کیے گئے اپنے انسانی حقوق پر اثرات کے جائزے کے چند اقتباسات شائع کیے۔ تاہم، کمپنی نے مکمل جائزہ رپورٹ جاری کرنے سے صاف انکار کر دیا، اور کہا کہ اس کا "مزید کچھ بھی شائع کرنے کا کوئی ارادہ نہیں ہے۔” اس منتخب شفافیت (selective transparency) نے انسانی حقوق کی تنظیموں کی جانب سے شدید تنقید کو جنم دیا، جنہوں نے دلیل دی کہ یہ "شفافیت اور احتساب کے اپنے ہی عزم سے کھلی دستبرداری” کے مترادف ہے۔ اس تمام عرصے کے دوران، میٹا نے بھارتی حکومت کے ساتھ ایک نہایت محتاط توازن برقرار رکھا، کبھی کبھار مخصوص درخواستوں پر پسپائی اختیار کرتے ہوئے، لیکن عمومی طور پر ریگولیٹری مطالبات کو تسلیم کرنے کی کوشش کی۔ کمپنی نے مواد ہٹانے کے بعض احکامات کو، بالخصوص ان کو جو سیاسی اپوزیشن کے مواد کو نشانہ بناتے تھے، عدالت میں چیلنج کیا، لیکن مجموعی طور پر نریندر
نریندر مودی حکومت کی جانب سے قائم کردہ وسیع تر ریگولیٹری ڈھانچے کی تعمیل ہی کی۔ یہ طرزِ عمل بھارت کی تزویراتی اہمیت، یعنی صارفین کی تعداد کے لحاظ سے اس کے سب سے بڑے بازار اور ترقی کے ایک کلیدی موقع، کے میٹا کے اعتراف کی عکاسی کرتا تھا۔ 2020ء میں ریلائنس جیو میں کمپنی کی 5.7 بلین ڈالر کی خطیر سرمایہ کاری نے اس کے کاروباری امکانات کو بھارت کے سیاسی ڈھانچے کے ساتھ خوشگوار تعلقات برقرار رکھنے سے مزید مضبوطی سے جوڑ دیا، جس سے متنازعہ ریگولیٹری معاملات پر حکومت کے ساتھ براہِ راست تصادم سے گریز کرنے کے اضافی محرکات پیدا ہوئے۔
اختتامیہ:
خلاصہ کلام یہ ہے کہ نریندر مودی کے دورِ حکومت میں بھارت کے اندر مسلم مخالف نفرت اور مذہبی تفریق کو ہوا دینے میں مارک زکربرگ کی کمپنی میٹا (فیس بک، واٹس ایپ، انسٹاگرام) کے پلیٹ فارمز نے ایک نہایت منفی اور تشویشناک کردار ادا کیا۔ شواہد سے یہ ثابت ہوتا ہے کہ میٹا کی پالیسیوں اور عملی اقدامات نے، دانستہ یا نادانستہ طور پر، اس خطرناک رجحان کو تقویت بخشی۔ اس کی بنیادی وجوہات میں الگورتھم کا نفرت انگیز مواد کو فروغ دینا، مواد کی نگرانی میں سنگین خامیاں اور واضح جانبداری، بھارتی زبانوں کے لیے ناکافی وسائل کا مختص کیا جانا، اور حکمران جماعت بی جے پی سے وابستہ اکاؤنٹس کے ساتھ ترجیحی سلوک شامل ہیں۔
یہ عوامل محض ڈیجیٹل دائرے تک محدود نہیں رہے، بلکہ انہوں نے حقیقی دنیا میں بھارت میں مسلمانوں کے لیے سنگین نتائج پیدا کیے۔ آن لائن پھیلنے والی نفرت نے جسمانی تشدد (جیسے دہلی فسادات)، معاشی بائیکاٹ، سماجی امتیاز اور گہرے نفسیاتی خوف کو جنم دیا۔ داخلی دستاویزات اوراندرونی راز افشا کرنے افراد کے انکشافات نے یہ ثابت کیا کہ میٹا ان مسائل سے بڑی حد تک آگاہ تھا، لیکن کاروباری مفادات اور مودی حکومت کے ساتھ اپنے تعلقات کو برقرار رکھنے کی خواہش نے اسے مؤثر اقدامات اٹھانے سے باز رکھا۔
بھارت میں میٹا کا معاملہ اس گہری ذمہ داری کو اجاگر کرتا ہے جو ان عالمی ٹیکنالوجی کمپنیوں پر عائد ہوتی ہے جو کروڑوں لوگوں کی زندگیوں اور معاشروں پر اثر انداز ہوتی ہیں۔ جب پلیٹ فارمز منافع اور ترقی کو انسانی حقوق اور تحفظ پر فوقیت دیتے ہیں، تو اس کے نتائج تباہ کن ہو سکتے ہیں۔ مستقبل میں ایسے نقصانات سے بچنے کے لیے میٹا اور دیگر سوشل میڈیا پلیٹ فارمز کو اپنی الگورتھمک ڈیزائن، مواد کی نگرانی کی پالیسیوں، اور حکومتی تعلقات میں بنیادی اور شفاف تبدیلیاں لانے کی اشد ضرورت ہے، تاکہ انسانی وقار اور سماجی ہم آہنگی کا تحفظ یقینی بنایا جا سکے۔
=======
Post Views: 2
Like this:
Like Loading...