أعلنت شركة آبل عن سلسلة من الأدوات التي تهدف إلى سلامة الأطفال ومنع استغلالهم عبر الإنترنت والتي تظهر لأول مرة عبر أنظمة تشغيل أجهزتها في وقت لاحق من هذا العام.
وتشمل هذه الإجراءات موضوعات حساسة للغاية مثل محاربة استغلال الأطفال واكتشاف مواد الاعتداء الجنسي على الأطفال CSAM والاستدراج عبر الإنترنت.
وقد قامت الشركة بتصميم الأدوات الجديدة للمساعدة في حماية الأطفال من مجرمي الإنترنت الذين يستخدمون أدوات الاتصال للإساءة إليهم.
وبالرغم من ترحيب الحكومات بهذه الأدوات الجديدة. ولكن العديد من المدافعين عن الخصوصية قد انتقدوا هذه الخطوة بشدة.
اقرا ايضًا: جوجل تمنح الأطفال تجربة أكثر أمانًا عبر الإنترنت
كيف تريد آبل محاربة مشكلة الإساءة للأطفال
تريد آبل حماية الأطفال الذين يستخدمون أجهزتها من خطر الاستدراج والاستغلال ومنع إنتشار مواد الاعتداء الجنسي على الأطفال عبر الإنترنت. وتحقيقا لهذه الغاية أعلنت عن ثلاثة إجراءات جديدة هي:
- كشف مواد الاعتداء الجنسي على الأطفال CSAM.
- سلامة الاتصالات في الرسائل.
- توسيع الإرشادات المتعلقة بالبحث عن موضوعات تتعلق بالإساءة للأطفال في مساعدها الصوتي سيري والبحث.
وتعتبر النقطتين الأخيرتين أقل إثارة للجدل وأكثر وضوحًا. ولا توجد أي مخاوف حقيقية تتعلق بالخصوصية أو الأمان بشأنهما.
ويعمل المساعد الصوتي والبحث على التدخل عند قيام المستخدمين بإجراء عمليات بحث عن استعلامات بمواد تتعلق بالإساءة للأطفال.
ويوضح المساعد الصوتي للمستخدم أن الاهتمام بهذا الموضوع ضار مع توفير روابط للحصول على المساعدة لحل هذه المشكلة.
وقد وجد الإجراء المتعلق بسلامة الاتصالات في الرسائل ترحيبًا من معظم المستخدمين. وهو متعلق بتطبيق الرسائل وتطبيق iMeesage.
وتقوم آبل بإضافة أدوات جديدة لتحذير الأطفال وأولياء أمورهم عند تلقي أو إرسال صور جنسية صريحة عبر التطبيقين. وذلك من خلال قيام تطبيق الرسائل بتعتيم الصور المسيئة مع تحذير الطفل من خطورة هذه الصور وعدم النظر إليها.
ويمكنك للآباء ايضًا الاشتراك للحصول على الإشعارات إذا شاهد طفلهم رسالة يحتمل أن تكون تحتوي على صور جنسية صريحة.
اقرا ايضًا: نتفليكس تخبر الآباء بما يشاهده الأطفال
كيف تتمكن الشركة من فحص الصور في آيكلاود
الإجراء الأكثر إثارة للجدل والأكثر تعقيدًا هو الذي يتيح للشركة فحص الصور ضمن آيكلاود بحثًا عن تلك التي تتعلق بمواد الاعتداء الجنسي على الأطفال.
وتقارن آبل صور CSAM المعروفة المخزنة في حساب صور آيكلاود لمستخدمي آيفون وآيباد مع قاعدة بيانات وكالات الأطفال المفقودين والمنظمات التي تعمل في مجال سلامة الأطفال الحكومية.
وبمجرد اكتشاف مثل تلك المواد، تبلغ آبل عن هذه الصور لوكالات تطبيق القانون المعنية.
ويمكن للأداة اكتشاف الصور غير القانونية والموثقة التي تحتوي على مواد CSAM دون رؤية الصور نفسها أو مسح الصور ضوئيًا في آيكلاود.
ويتم تشغيل عملية المطابقة للصور المسيئة في حالة تحميلها إلى حسابك في خدمة صور آيكلاود بواسطة تقنية تشفير تسمى تقاطع المجموعة الخاصة التي تحدد ما إذا كان هناك تطابق دون الكشف عن النتيجة.
وتؤكد آبل أن فرص قيام النظام الآلي بالإبلاغ عن المستخدمين بشكل غير صحيح هو واحد من تريليون في السنة. وحتى إذا تم الإبلاغ عن طريق الخطأ فيمكن للشركة فحص الصور يدويًا للتأكد من الأمر بمجرد استيفاء الحد الأدنى من الشروط المتعلقة بالصور المسيئة.
اقرا ايضًا: فيسبوك تختبر أدوات لمكافحة استغلال الأطفال
هل استخدام هذه الميزات إجبارية
الأدوات الجديدة ليست إجبارية وهي متاحة للأطفال الذين تقل أعمارهم عن 13 عامًا وتمت إضافتهم سابقًا إلى خدمة المشاركة العائلية.
وإذا كان عمر الطفل بين 13 و 17 عامًا فلن يكون لدى الوالدين خيار رؤية الإشعارات، ومع ذلك لا يزال بإمكان الأطفال تلقي تحذيرات عن المحتوى.
بالإضافة إلى ذلك تؤكد آبل أنها لن تتمكن من قراءة الرسائل بأي شكل لأن العملية كلها تتم عبر تقنية التعلم الآلي لاكتشاف هذه الصور في الجهاز نفسه.
ولن تعرف أبدًا أو تكون لديها إمكانية الوصول إلى الصور أو الرسائل المحيطة بها، حيث إن الأطفال وأولياء أمورهم هم المعنيين بذلك.
أجهزة آبل التي تتضمن أدوات سلامة الأطفال
تضمن آبل ميزات سلامة الأطفال الجديدة في جميع إصدار أنظمة التشغيل الجديدة المتوقع إطلاقها في نهاية هذا العام 2021. باستثناء أداة اكتشاف CSAM التي تأتي لهواتف آيفون وأجهزة آيباد.
اقرا ايضًا: كيفية تقييد وصول الأطفال إلى مواقع الويب في ويندوز 10 بسهولة