إنستغرام يتخذ إجراءات صارمة ضد الابتزاز الجنسي في سن المراهقة

فريق التحرير
كتب فريق التحرير 5 دقيقة للقراءة

يهدف Instagram إلى جعل الأمر أكثر صعوبة على المحتالين والمجرمين المحتملين لإجبار المراهقين على إرسال صور عارية وابتزازهم مقابل المال.

أعلنت الشركة يوم الخميس أنها تختبر ميزات جديدة للحد من اتجاه مثير للقلق يسمى الابتزاز الجنسي المالي، والذي غالبًا ما يستهدف الأطفال والمراهقين. بمجرد ظهور الصور العارية يزعم المحتالون أنهم سينشرونها عبر الإنترنت، إما على مواقع الويب العامة أو على ملفات الأخبار حيث يمكن لأصدقائهم رؤيتها، ما لم يرسل الضحايا أموالًا أو بطاقات هدايا.

وفي الأسابيع المقبلة، وبين مجموعة فرعية من المستخدمين، قال إنستغرام إنه سيطرح العديد من الميزات الجديدة ميزات، مثل طمس الصور العارية المرسلة في رسائل مباشرة وإبلاغ المستخدمين عندما يتفاعلون مع شخص متورط في ابتزاز مالي. وستتوفر الأدوات لجميع المستخدمين في جميع أنحاء العالم بعد فترة وجيزة.

وقالت أنتيجون ديفيس، مديرة السلامة العالمية في ميتا، لشبكة CNN: “إنها جريمة مروعة حقًا تجعل الناس يشعرون بالوحدة والخجل”. “لقد تم توثيقه جيدًا أن الجريمة آخذة في النمو، وهذا هو أحد الأسباب التي تجعلنا نريد المضي قدمًا والتأكد من أن الناس على دراية بما نقوم به بينما نعمل باستمرار على تطوير أدواتنا.”

ظلت المشاركة غير الرضائية للصور العارية تمثل مشكلة لسنوات، وعادةً بين الأشخاص الذين يسعون للانتقام من ضحايا يعرفونهم شخصيًا. لكن مكتب التحقيقات الفيدرالي قال مؤخرًا إنه شهد زيادة في حالات الابتزاز المالي من الغرباء، والتي غالبًا ما يبدأها المحتالون في الخارج. في بعض الحالات، أدى الابتزاز الجنسي إلى الانتحار.

تعتمد أحدث أدوات Meta على ميزات أمان المراهقين الحالية ذات الصلة بـ Meta، بما في ذلك الإعدادات الصارمة التي تمنع المراسلة بين الحسابات غير المتصلة، وزيادة في إشعارات الأمان وخيار الإبلاغ عن الرسائل المباشرة التي تهدد بمشاركة أو طلب صور حميمة. في العام الماضي، تعاونت ميتا مع المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) لتطوير Take It Down، وهي منصة تتيح للشباب إنشاء بصمة رقمية فريدة للصور الصريحة التي يريدون إزالتها من الإنترنت.

تأتي الأدوات أيضًا في الوقت الذي تواجه فيه Meta، جنبًا إلى جنب مع الشبكات الاجتماعية الأخرى، الآلاف من الدعاوى القضائية المتعلقة بالقتل الخطأ حول كيفية تسبب المنصات في إلحاق الضرر بالمستخدمين الشباب، بدءًا من تسهيل مبيعات الأدوية القاتلة إلى تمكين اضطرابات الأكل وإدمان وسائل التواصل الاجتماعي.

وقالت ميتا لشبكة CNN إنها ستختبر أولاً ميزة الحماية من العري ضمن رسائل Instagram المباشرة. عند إرسال صورة صريحة، ستقوم المنصة بطمس الصورة وإبلاغ المستلم بأنها تحتوي على عُري. سيذكر التنبيه أيضًا المستخدمين بأنهم لا يحتاجون إلى الرد ويسألهم عما إذا كانوا يريدون حظر المرسل. وسيظهر إشعار أيضًا عندما تكتشف المنصة أن المستخدم يريد إرسال صورة عارية، مما يدفعه إلى إعادة النظر.

سيتم تشغيل الأداة افتراضيًا للمراهقين الذين تقل أعمارهم عن 18 عامًا، ولكن سيتلقى البالغون أيضًا إشعارًا يشجعهم على تمكين الأداة.

وقالت الشركة لشبكة CNN إن تقنية Meta تستخدم التعلم الآلي على الجهاز لتحديد ما إذا كانت الصورة تحتوي على عُري. تحظر Meta بالفعل العري على قنوات الأخبار والمناطق العامة الأخرى في منصاتها.

وقالت ميتا إنها تعمل أيضًا على إيجاد طرق لتحديد الحسابات التي قد تكون متورطة في عمليات احتيال الابتزاز الجنسي من خلال اكتشاف ومراقبة سلوك الابتزاز الجنسي المحتمل. يتضمن ذلك جعل التفاعل مع هذه الحسابات أكثر صعوبة، مثل حظر الرسائل الصادرة، أو تنبيه المستخدمين الذين ربما تفاعلوا مع حساب تمت إزالته بسبب الابتزاز الجنسي. وستقوم الرسالة بتوجيههم إلى الموارد المدعومة من الخبراء، وفقًا للشركة.

وفي نوفمبر، انضمت ميتا إلى برنامج يسمى Lantern، تديره مجموعة Tech Coalition الصناعية، والذي يمكّن شركات التكنولوجيا من مشاركة المعلومات حول الحسابات والسلوكيات التي تنتهك سلامة أطفالها. وقالت الشركة إنها تضيف الآن التكامل مع أحدث أدوات منع الابتزاز الجنسي؛ على سبيل المثال، إذا تم إنشاء رابط على شبكة تواصل اجتماعي أخرى قبل مشاركته على Instagram، فسيتم إخطار النظام الأساسي الآخر.

قال ديفيس: “ما أود أن أراه يتحقق من خلال هذا الإعلان هو أن يكون الآباء أكثر وعياً بهذه الجريمة ويأخذون وقتًا للتعرف عليها”. “أريد أيضًا التأكد من أن الآباء يعرفون أنه من المهم أن يعلموا أطفالهم أنه من المقبول أن يأتوا إليهم إذا حدث شيء ما. لا ينبغي عليهم أن يشعروا بالخجل من التقدم وهناك أدوات متاحة يمكن أن تساعد.

شارك المقال
اترك تعليقك

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *