8 شركات تكنولوجية تتعاون لمكافحة الاستغلال الجنسى للأطفال عبر الإنترنت
يهدف برنامج جديد يسمى Lantern إلى مكافحة الاستغلال والاعتداء الجنسي على الأطفال عبر الإنترنت (OCSEA) من خلال مشاركة الإشارات عبر الأنظمة الأساسية بين الشركات عبر الإنترنت مثل Meta وDiscord.
وكتب The Tech Coalition، وهو مجموعة من شركات التكنولوجيا ذات هدف تعاوني لمكافحة الاستغلال الجنسي للأطفال عبر الإنترنت، في إعلان اليوم أن البرنامج عبارة عن محاولة لمنع المحتالين من تجنب الكشف عن طريق نقل الضحايا المحتملين إلى منصات أخرى، وفقا لتقرير theverge.
ويعمل Lantern كقاعدة بيانات مركزية للشركات للمساهمة بالبيانات والتحقق من منصاتها الخاصة، وعندما ترى الشركات إشارات مثل عناوين البريد الإلكتروني أو أسماء المستخدمين المعروفة التي تنتهك سياسة OCSEA، أو تجزئة مواد الاعتداء الجنسي على الأطفال (CSAM)، أو الكلمات الرئيسية لـ CSAM، يمكنها الإبلاغ عنها في أنظمتها الخاصة.
ويشير الإعلان إلى أنه على الرغم من أن الإشارات لا تثبت بشكل صارم سوء الاستخدام، إلا أنها تساعد الشركات على التحقيق وربما اتخاذ إجراءات مثل إغلاق الحساب أو الإبلاغ عن النشاط إلى السلطات.
وكتبت ميتا في منشور على مدونتها تعلن عن مشاركتها في البرنامج، وأنها استخدمت خلال المرحلة التجريبية لبرنامج Lantern المعلومات التي شاركها أحد شركاء البرنامج، Mega، لإزالة "أكثر من 10000 من الملفات الشخصية والصفحات وحسابات Instagram المنتهكة" والإبلاغ عنها إلى المركز الوطني للأطفال المفقودين والمستغلين.
ويقتبس إعلان التحالف أيضًا قول جون ريدجريف، رئيس الثقة والسلامة في Discord، الذي قال: "لقد تصرف Discord أيضًا بناءً على نقاط البيانات التي تمت مشاركتها معنا من خلال البرنامج، والتي ساعدت في العديد من التحقيقات الداخلية".
وتعتبر الشركات المشاركة في Lantern حتى الآن تشمل Discord وGoogle وMega وMeta وQuora وRoblox وSnap وTwitch، وقام أعضاء التحالف بتطوير برنامج Lantern على مدار العامين الماضيين، وتقول المجموعة إنه إلى جانب إنشاء حلول تقنية، كان عليها إخضاع البرنامج "لفحص الأهلية" والتأكد من توافقه مع المتطلبات القانونية والتنظيمية و"متوافق أخلاقيًا". "
وأحد التحديات الكبيرة التي تواجه مثل هذه البرامج هو التأكد من فعاليتها مع عدم ظهور مشاكل جديدة، وفي حادثة وقعت عام 2021 قامت الشرطة بالتحقيق مع أب بعد أن أبلغته شركة Google بتهمة CSAM بسبب صور إصابة طفله بعدوى في الفخذ، وحذرت عدة مجموعات من أن مشكلات مماثلة قد تنشأ مع ميزة المسح الضوئي CSAM لمكتبة صور iCloud الآلية من Apple، والتي تم إلغاؤها الآن.
وكتب تحالف التكنولوجيا أنه كلف بإجراء تقييم لأثر حقوق الإنسان من قبل الأعمال من أجل المسؤولية الاجتماعية (BSR) وهو تحالف أكبر من الشركات التي تهدف إلى قضايا السلامة والاستدامة العالمية، سيقدم BSR إرشادات مستمرة مع تغير البرنامج بمرور الوقت.
وسيشرف التحالف على Lantern ويقول إنه مسؤول عن وضع مبادئ توجيهية وقواعد واضحة لمشاركة البيانات، وكجزء من البرنامج يجب على الشركات إكمال التدريب الإلزامي وعمليات تسجيل الوصول الروتينية، وستقوم المجموعة بمراجعة سياساتها وممارساتها بانتظام.