شرح: كيف ستقوم Apple بالبحث عن صور استغلال الأطفال على الأجهزة ، ولماذا تثير الدهشة
من المتوقع أن يبدأ البث المباشر في الولايات المتحدة في البداية ، وتشمل الميزات استخدام تقنية جديدة للحد من انتشار CSAM عبر الإنترنت ، وخاصة عبر منصة Apple.

أعلنت شركة آبل ذلك ستجلب تحديثات البرامج في وقت لاحق من هذا العام ميزات جديدة سيساعد ذلك في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم ، والحد من انتشار مواد الاعتداء الجنسي على الأطفال (CSAM).
من المتوقع أن يبدأ البث المباشر في الولايات المتحدة في البداية ، وتشمل الميزات استخدام تقنية جديدة للحد من انتشار CSAM عبر الإنترنت ، وخاصة عبر منصة Apple.
ثم ستكون هناك حماية على الجهاز للأطفال من إرسال أو تلقي محتوى حساس ، مع آليات لتنبيه الوالدين في حال كان عمر المستخدم أقل من 13 عامًا. ستتدخل Apple أيضًا عند استخدام Siri أو البحث للبحث عن الموضوعات المتعلقة بـ CSAM .
ما التقنية التي تفعلها Apple لمنع انتشار CSAM عبر الإنترنت؟
في منشور مدونة ، أوضحت Apple أنها ستستخدم تطبيقات التشفير عبر iOS و iPadOS لمطابقة صور CSAM المعروفة المخزنة على iCloud Photo. ستطابق التقنية الصور الموجودة على iCloud للمستخدم مع الصور المعروفة المقدمة من منظمات سلامة الأطفال. ويتم ذلك دون رؤية الصورة فعليًا وفقط من خلال البحث عما يشبه مطابقة بصمات الأصابع. في حالة وجود مطابقات تتجاوز الحد الأدنى ، ستبلغ Apple عن هذه الحالات إلى المركز الوطني للأطفال المفقودين والمستغَلين (NCMEC).
أوضحت شركة Apple أن تقنيتها تضع خصوصية المستخدم في الاعتبار ، وبالتالي يتم تحويل قاعدة البيانات إلى مجموعة غير قابلة للقراءة من التجزئات المخزنة بشكل آمن على أجهزة المستخدمين. وأضافت أنه قبل تحميل أي صورة على iCloud ، سيقوم نظام التشغيل بمطابقتها مع تجزئات CSAM المعروفة باستخدام تقنية تشفير تسمى تقاطع المجموعة الخاصة. ستحدد هذه التقنية أيضًا تطابقًا دون الكشف عن النتيجة.
في هذه المرحلة ، يقوم الجهاز بإنشاء قسيمة أمان مشفرة مع نتيجة المطابقة وبيانات مشفرة إضافية وحفظها في iClouds مع الصورة. تضمن تقنية مشاركة سر Threshold أن Apple لا يمكن تفسير هذه القسائم ما لم يتجاوز حساب iCloud Photos حدًا من محتوى CSAM المعروف. ادعت المدونة أن هذا الحد قد تم وضعه لتوفير مستوى عالٍ للغاية من الدقة ويضمن أقل من واحد من كل تريليون فرصة سنويًا للإبلاغ عن حساب معين بشكل غير صحيح. لذلك من غير المحتمل أن تؤدي صورة واحدة إلى إطلاق تنبيه.
ولكن في حالة تجاوز الحد الأدنى ، يمكن لشركة Apple تفسير محتويات قسائم الأمان ومراجعة كل تقرير يدويًا لمعرفة المطابقة وتعطيل حساب المستخدم وإرسال تقرير إلى NCMEC. قالت شركة Apple إن المستخدمين سيكونون قادرين على الطعن إذا اعتقدوا أنه تم الإبلاغ عنهم خطأ.
كيف تعمل الميزات الأخرى؟
ستعمل سلامة اتصالات Apple الجديدة للرسائل على تعتيم الصورة الحساسة وتحذير الطفل من طبيعة المحتوى. في حالة التمكين من الخلفية ، يمكن أيضًا إخبار الطفل أن والديهم قد تم تنبيههم بشأن الرسالة التي شاهدوها. وينطبق الشيء نفسه إذا قرر الطفل إرسال رسالة حساسة. قالت شركة آبل إن الرسائل ستستخدم التعلم الآلي على الجهاز لتحليل مرفقات الصور وتحديد ما إذا كانت الصورة جنسية صريحة وأن Apple لن تتمكن من الوصول إلى الرسائل. ستأتي الميزة كتحديث على الحسابات التي تم إعدادها كعائلات في iCloud لأحدث إصدارات نظام التشغيل.
أيضًا ، مع التحديث ، عندما يحاول المستخدم البحث عن موضوعات CSAM محتملة ، سيشرح Siri و Search لماذا قد يكون ذلك ضارًا وإشكاليًا. سيحصل المستخدمون أيضًا على إرشادات حول كيفية تقديم بلاغ عن استغلال الأطفال إذا طلبوا ذلك.
| شرح: كيف ولماذا ستقدم Google مزيدًا من الحماية للأطفال عبر الإنترنت
لماذا تفعل Apple هذا وما هي المخاوف التي تثار؟
تعرضت شركات التكنولوجيا الكبرى لسنوات لضغوط من أجل اتخاذ إجراءات صارمة ضد استخدام منصتها لاستغلال الأطفال. أكدت العديد من التقارير على مر السنين كيف لم يتم عمل ما يكفي لمنع التكنولوجيا من جعل محتوى CSAM متاحًا على نطاق أوسع.
ومع ذلك ، فقد قوبل إعلان شركة Apple بالنقد مع العديد من التأكيد على أن هذا هو بالضبط نوع تكنولوجيا المراقبة التي ترغب العديد من الحكومات في امتلاكها وتحب إساءة استخدامها. حقيقة أن هذا قد أتى من شركة Apple ، التي لطالما كانت مدافع عن الخصوصية ، فاجأ الكثيرين.
أيضًا ، أعرب خبراء التشفير مثل ماثيو جرين من جامعة جونز هوبكنز عن مخاوفهم من إمكانية استخدام النظام لتأطير أشخاص أبرياء يرسلون إليهم صورًا تهدف إلى تشغيل المطابقات لـ CSAM. قال لـ NPR إن الباحثين تمكنوا من القيام بذلك بسهولة تامة ، مضيفًا أنه من الممكن خداع مثل هذه الخوارزميات.
لكن صحيفة نيويورك تايمز نقلت عن إريك نوينشواندر ، كبير مسؤولي الخصوصية في شركة آبل ، قوله إن هذه الميزات لن تعني أي شيء مختلف للمستخدمين العاديين.
قال للنشر إذا كنت تخزن مجموعة من مواد CSAM ، نعم ، هذا أمر سيء بالنسبة لك.
النشرة الإخبارية| انقر للحصول على أفضل الشرح لهذا اليوم في بريدك الوارد
هل تمتلك شركات التكنولوجيا الكبرى الأخرى تقنيات مماثلة؟
نعم. في الواقع ، تعد شركة Apple من الوافدين المتأخرين نسبيًا على الساحة حيث قامت Microsoft و Google و Facebook بتنبيه وكالات إنفاذ القانون حول صور CSAM. كانت شركة Apple متخلفة عن الركب لأن أي تقنية من هذا القبيل كانت ستتعارض مع التزامها المزعوم بخصوصية المستخدم. نتيجة لذلك ، في عام 2020 ، عندما أبلغ Facebook عن 20.3 مليون انتهاك CSAM إلى NCMEC ، تمكنت Apple من الإبلاغ عن 265 حالة فقط ، حسبما ذكرت صحيفة The New York Times.
لم يتمكن سوى الآن من العثور على موقع الحلويات التقنية للقيام بذلك دون التأثير على المستخدمين العاديين ، أو على الأقل إغضابهم. ومع ذلك ، وكما أظهر رد الفعل الأولي ، فإنه لا يزال يسير على حبل مشدود.
شارك الموضوع مع أصدقائك: