شركة Apple تكشف عن جهود جديدة لمكافحة صور إساءة معاملة الأطفال

أكدت شركة Apple الخطط التي تم الحديث عنها مسبقًا لنشر تقنية جديدة داخل iOS و macOS و watchOS و iMessage والتي ستكتشف صور إساءة معاملة الأطفال المحتملة ، لكنها أوضحت تفاصيل مهمة من المشروع الجاري.

شركة Apple تكشف عن جهود جديدة لمكافحة صور إساءة معاملة الأطفال 1

بالنسبة للأجهزة في الولايات المتحدة ، فإن الإصدارات الجديدة من iOS و iPadOS التي سيتم طرحها هذا الخريف بها “تطبيقات جديدة للتشفير للمساعدة في الحد من انتشار CSAM [مواد الاعتداء الجنسي على الأطفال] عبر الإنترنت ، أثناء التصميم من أجل خصوصية المستخدم.

تم تفصيل المشروع في صفحة “سلامة الأطفال” الجديدة على موقع ويب Apple.

التطبيق الأكثر توغلًا وإثارة للجدل هو النظام الذي يقوم بإجراء مسح ضوئي على الجهاز قبل نسخ الصورة احتياطيًا في iCloud. من الوصف ، لا يحدث المسح حتى يتم نسخ الملف احتياطيًا إلى iCloud ، ولا تتلقى Apple بيانات حول تطابق إلا إذا كانت قسائم التشفير (التي تم تحميلها على iCloud مع الصورة) لحساب معين تفي بعتبة مطابقة CSAM المعروفة .

وصفت Apple العديد من القيود التي تم تضمينها لحماية الخصوصية

لسنوات ، استخدمت Apple أنظمة للبحث عن صور إساءة معاملة الأطفال المرسلة عبر البريد الإلكتروني ، بما يتماشى مع الأنظمة المماثلة في Gmail وموفري البريد الإلكتروني السحابي الآخرين. سيطبق البرنامج الذي تم الإعلان عنه اليوم عمليات المسح نفسها على صور المستخدم المخزنة في صور iCloud ، حتى إذا لم يتم إرسال الصور إلى مستخدم آخر أو مشاركتها بأي طريقة أخرى.

تعتمد التفاصيل الجديدة على المخاوف التي تم تسريبها في وقت سابق

انها أيضاً تضيف أيضًا عددًا من الإجراءات الوقائية التي يجب أن تحمي الخصوصية لمثل هذا النظام. على وجه الخصوص ، بمجرد إنشاء تنبيه ، تتم مراجعته من قبل Apple و NCMEC قبل تنبيه تطبيق القانون ، مما يوفر حماية إضافية ضد النظام المستخدم لاكتشاف المحتوى غير CSAM.

اقرأ أيضاً : تقوم موتورولا بتحديث الجيل الأول من Razr القابل للطي – مع أندرويد 11

شركة Apple تكشف عن جهود جديدة لمكافحة صور إساءة معاملة الأطفال 2

أجرت Apple تقييمات فنية للنظام من ثلاثة مصممين مستقلين

الذين وجدوا أنه قوي من الناحية الحسابية. “في رأيي ، من المرجح أن يزيد هذا النظام بشكل كبير من احتمالية العثور على الأشخاص الذين يمتلكون أو يتداولون في مثل هذه الصور (المستخدمون الضارون) ؛ قال البروفيسور ديفيد فورسيث ، رئيس قسم علوم الكمبيوتر في جامعة إلينوي ، في أحد التقييمات: “هذا يجب أن يساعد في حماية الأطفال”.

ومع ذلك ، قالت شركة Apple إنه من المحتمل إضافة مجموعات أخرى لسلامة الأطفال مع توسع البرنامج ، ولم تلتزم الشركة بإتاحة قائمة الشركاء للجمهور في المستقبل. من المرجح أن يؤدي ذلك إلى زيادة المخاوف بشأن كيفية استغلال النظام من قبل الحكومة الصينية ، التي سعت منذ فترة طويلة إلى زيادة الوصول إلى بيانات مستخدمي iPhone داخل البلاد.

نموذج رسائل تحذير للأطفال والآباء عند اكتشاف صور جنسية صريحة

شركة Apple تكشف عن جهود جديدة لمكافحة صور إساءة معاملة الأطفال 3

إلى جانب الإجراءات الجديدة في iCloud Photos ، أضافت Apple نظامين إضافيين لحماية مالكي iPhone الشباب المعرضين لخطر إساءة معاملة الأطفال. أجرى تطبيق الرسائل بالفعل فحصًا على الجهاز لمرفقات الصور لحسابات الأطفال لاكتشاف المحتوى الذي يحتمل أن يكون جنسيًا صريحًا. بمجرد اكتشاف المحتوى ، يتم تعتيمه ويظهر تحذير. سيؤدي الإعداد الجديد الذي يمكن للوالدين تمكينه في حسابات عائلاتهم على iCloud إلى تشغيل رسالة تخبر الطفل أنه إذا عرض (واردة) أو أرسل (صادرًا) الصورة المكتشفة ، فسيحصل والداهم على رسالة حول هذا الموضوع.

اقرأ أيضاً : شاومي هي الآن أكبر شركة لتصنيع الهواتف الذكية في العالم في 2021 ، وفقًا لأحد التقارير

فضلاً شارك الموضوع مع اصدقائك