▪︎ مجلس نيوز
و هي أحدث شركات التكنولوجيا تهدف إلى الحد من انتشار الإباحية الانتقامية – مشاركة الصور ومقاطع الفيديو الحميمة دون موافقة الموضوع. لقد دخلوا في شراكة مع (Stop Non-Consensual Intimate Image Abuse) ، الذي يستضيف أداة تم تطويرها بالشراكة مع. سيكتشف TikTok و Bumble و Facebook و Instagram أي صور مضمنة في بنك StopNCII.org ويحظرها.
يمكّن موقع الويب الأشخاص من إنشاء تجزئات (بصمات رقمية فريدة) للصور ومقاطع الفيديو المعنية. تتم هذه العملية على أجهزتهم. من أجل حماية خصوصية المستخدمين ، لا يتم تحميل الملفات الفعلية على StopNCII.org ، فقط سلسلة فريدة من الأحرف والأرقام.
تتم مشاركة التجزئة المُرسلة إلى StopNCII.org مع شركاء المبادرة. إذا كانت هناك صورة أو مقطع فيديو تم تحميله على TikTok أو Bumble أو Facebook أو Instagram يتطابق مع التجزئة المقابلة و “يفي بمتطلبات سياسة الشريك” ، فسيتم إرسال الملف إلى فريق الإشراف على المنصة. إذا وجد الوسطاء أن الصورة تنتهك قواعد النظام الأساسي الخاص بهم ، فسيتم إزالتها. ستحظر الأنظمة الأساسية الشريكة الأخرى مشاركة الصورة أيضًا.
كانت الأداة وأنشأ أكثر من 12000 شخص حالات لمنع مشاركة مقاطع الفيديو والصور الحميمة دون موافقة. أنشأ المستخدمون أكثر من 40000 تجزئة حتى الآن. كما ملاحظات ، دخلت Meta في شراكة مع SWGfL ، وهي منظمة غير ربحية في المملكة المتحدة وراء خط مساعدة Revenge Porn ، لتطوير StopNCII.org. تأمل SWGfL أن تقوم العديد من المنصات بالتسجيل.
المبادرة مبنية على Meta (المعروفة آنذاك باسم Facebook) التي بدأت في أستراليا في عام 2017 والتي طلبت من المستخدمين تحميل صور إباحية انتقامية إلى دردشة Messenger مع أنفسهم. وعد ميتا بعد تجزئة لهم ، ولكن النهج أثار.
ينضم TikTok و Bumble إلى المبادرة وسط حملة قمع أوسع للانتقام الإباحي. تخطط المملكة المتحدة ، على سبيل المثال ، لإجبار المنصات التي تستضيف المحتوى الذي ينشئه المستخدمون على إزالة الصور الحميمة غير التوافقية بسرعة أكبر ، على النحو المنصوص عليه في.