▪︎ مجلس نيوز
أنشأت Meta فريق عمل داخليًا بعد أن اكتشف المراسلون والباحثون أن أنظمتها ساعدت في “الاتصال والترويج لشبكة واسعة من الحسابات” المخصصة لمحتوى الجنس دون السن القانونية ، صحيفة وول ستريت جورنال تم الإبلاغ عنه. على عكس المنتديات وخدمات نقل الملفات ، لا يستضيف Instagram مثل هذه الأنشطة فحسب ، بل يروج لها عبر خوارزمياته. أقرت الشركة بوجود مشاكل في الإنفاذ واتخذت إجراءات بما في ذلك تقييد أنظمتها من التوصية بعمليات البحث المرتبطة بالاعتداء الجنسي.
وقالت ميتا للصحيفة “استغلال الأطفال جريمة مروعة” وول ستريت جورنال بالوضع الحالي. “نحن نبحث باستمرار عن طرق للدفاع بنشاط ضد هذا السلوك.”
إلى جانب فرقة العمل ، أخبرت ميتا المراسلين أنها تعمل على حجب شبكات مواد الاعتداء الجنسي على الأطفال (CSAM) واتخاذ خطوات لتغيير أنظمتها. في العامين الماضيين ، أزال 27 شبكة من شبكات الاستغلال الجنسي للأطفال وتعمل على إزالة المزيد. لقد حظرت الآلاف من علامات التصنيف ذات الصلة (مع ملايين المنشورات للبعض) واتخذت إجراءات لمنع أنظمتها من التوصية بالمصطلحات المتعلقة بـ CSAM. إنها تحاول أيضًا منع أنظمتها من ربط المنتهكين المحتملين ببعضهم البعض.
ومع ذلك ، يجب أن يكون التقرير بمثابة جرس إنذار لشركة Meta ، حسبما قال رئيس الأمن السابق للشركة Alex Stamos لـ وول ستريت جورنال. وقال: “إن فريقًا من ثلاثة أكاديميين ذوي وصول محدود يمكنهم العثور على مثل هذه الشبكة الضخمة يجب أن يطلق الإنذارات في Meta” ، مشيرًا إلى أن أدوات الشركة أفضل بكثير من المحققين الخارجيين لرسم خرائط لشبكات CSAM. “آمل أن تعيد الشركة الاستثمار في المحققين البشريين”.
وفقًا للتقرير ، تمكن الأكاديميون من مرصد الإنترنت في ستانفورد ومختبر الإنقاذ التابع لـ UMass من العثور بسرعة على “مجتمعات واسعة النطاق تروج للانتهاكات الجنسية الإجرامية”. بعد إنشاء مستخدمين تجريبيين وعرض حساب واحد ، تم توجيههم فورًا إلى توصيات “مقترحة لك” للبائعين والمشترين المحتملين لـ CSAM ، جنبًا إلى جنب مع الحسابات المرتبطة بمواقع المحتوى خارج النظام الأساسي.