جاكرتا، أندونيسيا بعد سنوات من التدقيق في فيسبوك بسبب مساهمته في العنف العرقي والديني في ميانمار ، لا يزال فيسبوك يواجه مشكلة في تحديد موقع خطاب الكراهية والمعلومات المضللة وتعديلهما على منصته في الدولة الواقعة في جنوب شرق آسيا ، حسبما تظهر الوثائق الداخلية. اطلعت عليه أسوشيتد برس.

قبل ثلاث سنوات ، أصدرت الشركة تكليفًا بتقرير وجد أن Facebook كان يُستخدم “للتحريض على الانقسام والتحريض على العنف خارج الإنترنت” في البلاد. لقد وعدت بفعل ما هو أفضل وطور العديد منها أدوات وسياسات للتعامل مع خطاب الكراهية.

لكن الانتهاكات استمرت – بل واستغلتها جهات معادية – منذ 1 فبراير استيلاء الجيش على السلطة هذا العام أدى إلى انتهاكات مروعة لحقوق الإنسان عبر الدوله.


يستهدف فيسبوك نشر معلومات مضللة

05:21

إذا كنت تتصفح Facebook اليوم ، فليس من الصعب العثور على منشورات تهدد بالقتل والاغتصاب في ميانمار. حصد مقطع فيديو مدته دقيقتان ونصف ، نُشر في 24 أكتوبر / تشرين الأول ، لأحد مؤيدي الجيش يدعو إلى العنف ضد جماعات المعارضة ، أكثر من 56 ألف مشاهدة.

قال الرجل باللغة البورمية وهو ينظر إلى الكاميرا: “من الآن فصاعدًا نحن إله الموت للجميع”. “تعال غدًا ودعنا نرى ما إذا كنت رجلاً حقيقيًا أم مثليين.”

يسرد أحد الحسابات عنوان منزل منشق عن الجيش وصورة لزوجته. يحتوي منشور آخر في 29 أكتوبر / تشرين الأول على صورة لجنود يقودون رجالا معصوبي الأعين ومقيدين على طريق ترابي. تقول التسمية التوضيحية البورمية: “لا تمسكهم أحياء”.

على الرغم من المشكلات المستمرة ، رأى Facebook عملياته في ميانمار كنموذج للتشغيل في جميع أنحاء العالم وعمل تجاري متطور ومتطور. تُظهر الوثائق التي راجعتها وكالة أسوشييتد برس أن ميانمار أصبحت ساحة اختبار لتقنية تعديل المحتوى الجديدة ، حيث يختبر عملاق الوسائط الاجتماعية طرقًا لأتمتة اكتشاف خطاب الكراهية والمعلومات المضللة بمستويات مختلفة من النجاح.

تم الكشف عن مناقشات Facebook الداخلية حول ميانمار في عمليات الكشف التي تم إجراؤها إلى لجنة الأوراق المالية والبورصات وتقديمها إلى الكونغرس في شكل محرر بواسطة السابق موظفة في Facebook ، أصبحت مُبلغة عن المخالفات ، فرانسيس هوغنمستشار قانوني. تم الحصول على النسخ المحررة التي تلقاها الكونجرس من قبل مجموعة من المؤسسات الإخبارية ، بما في ذلك وكالة أسوشيتد برس.


يقول كلوكينلويدر إن منصات فيسبوك تضر …

08:06

يتمتع Facebook بتاريخ أقصر ولكنه أكثر تقلبًا في ميانمار منه في معظم البلدان. بعد عقود من الرقابة في ظل الحكم العسكري ، كانت ميانمار متصلة بالإنترنت في عام 2000. بعد ذلك بوقت قصير ، دخل Facebook في شراكة مع مزودي خدمات الاتصالات في جميع أنحاء البلاد ، مما مكّن العملاء من استخدام النظام الأساسي دون دفع ثمن البيانات ، والتي كانت لا تزال باهظة الثمن في ذلك الوقت. انفجر استخدام المنصة. بالنسبة للكثيرين في ميانمار ، أصبح Facebook هو الإنترنت نفسه.

قالت Htaike Htaike Aung ، المدافعة عن سياسة الإنترنت في ميانمار ، إنها أصبحت أيضًا حول “2013 حاضنة للتطرف” ، بالتزامن مع أعمال شغب دينية في جميع أنحاء ميانمار بين البوذيين والمسلمين. من غير الواضح مقدار الإشراف على المحتوى ، إن وجد ، الذي حدث في ذلك الوقت.

قالت Htaike Htaike Aung إنها التقت بفيسبوك في ذلك العام وحددت القضايا في جميع أنحاء البلاد ، بما في ذلك كيف تنظر المنظمات المحلية إلى الكم الهائل من خطاب الكراهية على المنصة وكيف أن الآليات الوقائية ، مثل الإبلاغ عن المنشورات ، لا تعمل في سياق ميانمار. .

أحد الأمثلة التي استشهدت بها هو صورة كومة من أعواد الخيزران معلقة مع تعليق كتب عليه “دعونا نكون مستعدين ، لأنه ستكون هناك أعمال شغب داخل المجتمع المسلم”.


تقرير فيسبوك عن ميانمار

00:58

قال Htaike Htaike Aung إنه تم الإبلاغ عن الصورة إلى Facebook ، لكن الشركة لم تقم بإزالتها لأنها لا تنتهك أيًا من معايير المجتمع الخاصة بالشركة.

وقالت: “هذا سخيف ، لأنه كان في الواقع دعوة للعنف. لكن فيسبوك لم ير الأمر بهذه الطريقة”.

بعد سنوات ، لفت الافتقار إلى الاعتدال انتباه المجتمع الدولي. في مارس / آذار 2018 ، قال نشطاء حقوقيون تابعون للأمم المتحدة يحققون في الهجمات ضد أقلية الروهينجا المسلمة في ميانمار إن فيسبوك لعب دورًا في نشر خطاب الكراهية.

عندما سُئل مارك زوكربيرج ، الرئيس التنفيذي ، عن ميانمار بعد شهر ، أجاب مارك زوكربيرج ، الرئيس التنفيذي ، أن فيسبوك تخطط لتوظيف “عشرات” المتحدثين البورميين لتعديل المحتوى ، وستعمل مع مجموعات المجتمع المدني لكراهية الشخصيات. تحديد وتطوير تقنيات جديدة لمكافحة الكلام الذي يحض على الكراهية. .

أدلى مارك زوكربيرج ، الرئيس التنفيذي لشركة Facebook ، بشهادته خلال المحاكمة المشتركة للتجارة والقضاء
ينتظر مارك زوكربيرج ، المؤسس المشارك والرئيس والمدير التنفيذي لفيسبوك ، الإدلاء بشهادته قبل محاكمة مشتركة للجنة القضاء والتجارة في مجلس الشيوخ في مبنى مكتب مجلس الشيوخ في القلب في كابيتول هيل ، 10 أبريل ، 2018 في واشنطن العاصمة.

أليكس وونغ / جيتي


قال زوكربيرج: “كلام الكراهية خاص بلغة معينة. من الصعب الاستغناء عن الأشخاص الذين يتحدثون اللغة المحلية ونحن بحاجة إلى شحذ جهودنا هناك بشكل كبير”.

تظهر وثائق فيسبوك الداخلية أنه على الرغم من تكثيف الشركة لجهودها لمكافحة خطاب الكراهية ، إلا أن الأدوات والاستراتيجيات اللازمة للقيام بذلك لم تتحقق بالكامل على الإطلاق ، وقد أطلق الأفراد داخل الشركة ناقوس الخطر مرارًا وتكرارًا. في أحد وثائق مايو 2020 ، قال موظف إن مُصنِّف نص خطاب الكراهية الذي كان متاحًا لا يتم استخدامه أو صيانته. وقالت وثيقة أخرى بعد شهر إن هناك “ثغرات كبيرة” في الكشف عن المعلومات المضللة في ميانمار.

قال رونان لي ، الباحث الزائر في مبادرة الجريمة الدولية بجامعة كوين ماري بلندن: “اتخذ فيسبوك إجراءات رمزية أعتقد أنها مصممة لإظهار صانعي السياسة أن هناك شيئًا ما يتم القيام به وليس من الضروري أن ننظر بشكل أعمق بكثير”.

في رسالة بريد إلكتروني إلى وكالة الأسوشييتد برس ، قال رافائيل فرانكل ، مدير السياسة في فيسبوك للبلدان الناشئة في منطقة آسيا والمحيط الهادي ، إن المنصة “شكلت فريقًا مخصصًا من أكثر من 100 متحدث بورمي” ، لكنه رفض تحديد عدد الموظفين الذين تم توظيفهم. تقدر شركة التسويق عبر الإنترنت NapoleonCat أن هناك ما يقرب من 28.7 مليون مستخدم Facebook في ميانمار.


فيسبوك تعلن عن اسم جديد وسط أزمة

05:28

خلال شهادتها أمام البرلمان الأوروبي في 8 تشرين الثاني (نوفمبر) ، انتقدت المبلغة هاوجين فيسبوك لقلة الاستثمار في التحقق من الحقائق من طرف ثالث ، واعتمدت بدلاً من ذلك على أنظمة آلية للكشف عن المحتوى الضار.

وقالت في إشارة إلى ميانمار: “إذا ركزت على هذه الأنظمة الآلية ، فلن تعمل في أكثر الأماكن تنوعًا عرقيًا في العالم ، مع أماكن مختلفة لغويًا في العالم ، والتي غالبًا ما تكون الأكثر هشاشة”.

بعد شهادة زوكربيرج في الكونغرس لعام 2018 ، طور Facebook أدوات رقمية لمكافحة خطاب الكراهية والمعلومات المضللة ، كما أنشأ إطارًا داخليًا جديدًا لإدارة الأزمات مثل ميانمار في جميع أنحاء العالم.

قام Facebook بتجميع قائمة بـ “البلدان الخطرة” بمستويات مصنفة لـ “فريق البلدان الحرجة” لتركيز طاقته عليه ، وكذلك قام بتصنيف اللغات التي تحتاج إلى مزيد من الإشراف على المحتوى. ميانمار مدرجة على أنها بلد خطر من “المستوى 1” ، حيث تعتبر البورمية “لغة ذات أولوية” إلى جانب اللغات الإثيوبية والبنغالية والعربية والأردية.

مبيعات التضامن في ميانمار
متظاهرون شبان يشاركون في إضراب مقنع في 4 أبريل 2021 في يانغون ، ميانمار.

AP


قام مهندسو فيسبوك بتعليم أنظمتها الآلية الكلمات العامية البورمية لكل من “المسلمين” و “الروهينجا”. كما قامت بتدريب الأنظمة على اكتشاف “السلوك غير الموثوق به المنسق” ، مثل قيام شخص واحد بالنشر من حسابات متعددة ، أو التنسيق بين الحسابات المختلفة لنشر نفس المحتوى.

حاولت الشركة أيضًا محاولة “التدهور المتكرر للمجرمين” ، مما يقلل من تأثير منشورات المستخدمين الذين ينتهكون الإرشادات بانتظام. في اختبار تم إجراؤه في اثنتين من أكثر دول العالم استقرارًا ، نجح التدهور بشكل جيد في إثيوبيا ولكن بشكل سيئ في ميانمار – وهو فارق أذهله المهندسون ، وفقًا لتقرير عام 2020 المتضمن في الوثائق.

وجاء في التقرير: “لسنا متأكدين من السبب … ولكن هذه المعلومات توفر نقطة انطلاق لمزيد من التحليل والبحث عن المستخدمين”. رفض Facebook التعليق على السجل إذا تم حل المشكلة بعد عام من اكتشافها ، أو على نجاح الأداتين في ميانمار.

Leave a Reply

Your email address will not be published. Required fields are marked *