أثار تقرير حديث صادر عن مرصد الإنترنت بجامعة ستانفورد إنذارات بشأن حدوث طوفان جديد من الإنترنت الاعتداء الجنسي على الأطفال المواد التي أنشأها الذكاء الاصطناعي، والتي تهدد بإرباك السلطات القائمة. ويسلط التقرير الضوء على التحديات الجسيمة التي تواجه المركز الوطني للأطفال المفقودين والمستغلين (إن سي إم إي سي) في مواجهة هذا التهديد المتصاعد.
على مدى العام الماضي، سهّلت التطورات في تكنولوجيا الذكاء الاصطناعي على المجرمين إنشاء صور صريحة للأطفال. وقد أدت هذه التطورات إلى زيادة كبيرة في حجم المواد الجنسية للطفل على الإنترنت، مما يعقد جهود المنظمات المكلفة بحماية الأطفال ومحاكمة الجناة.
CyberTipline المسؤول عن جميع التقارير المتعلقة بـ (الاعتداء الجنسي على الأطفال مواد) CSAM عبر الإنترنت وهي أداة مهمة لتحقيقات إنفاذ القانون. ومع ذلك، فإن خط المعلومات متوتر بالفعل بسبب العدد الكبير من التقارير غير الكاملة أو غير الدقيقة. ومع معاناة طاقم العمل الصغير من أجل مواكبة ذلك، من المتوقع أن تؤدي إضافة محتوى واقعي للغاية تم إنشاؤه بواسطة الذكاء الاصطناعي إلى تفاقم هذه المشكلات.
قال شيلبي غروسمان، أحد المشاركين في الدراسة: "من شبه المؤكد أنه في السنوات القادمة، سيتم غمر خط المعلومات بمحتوى الذكاء الاصطناعي ذو المظهر الواقعي للغاية، الأمر الذي سيجعل من الصعب على سلطات إنفاذ القانون تحديد الأطفال الحقيقيين الذين يحتاجون إلى الإنقاذ". مؤلفي التقرير.
لا يزال المشرعون وجهات إنفاذ القانون يحدّدون مجال الجريمة الناشئ هذا، مما يزيد من تعقيد مكافحته. وفقًا للباحثين، فإن صور الاعتداء الجنسي على الأطفال التي ينشئها الذكاء الاصطناعي تعتبر غير قانونية إذا كانت تحتوي على أطفال حقيقيين أو تستخدم صورًا لأطفال حقيقيين لتدريب البيانات. ومع ذلك، فإن الصور التي تم إنشاؤها بشكل اصطناعي والتي لا تصور أفرادًا حقيقيين يمكن أن تكون محمية بموجب حرية التعبير، مما يمثل منطقة رمادية قانونية تزيد من تعقيد عملية التنفيذ.
كان الغضب العام بشأن انتشار صور الاعتداء الجنسي على الأطفال عبر الإنترنت واضحًا خلال جلسة استماع عقدت مؤخرًا مع الرؤساء التنفيذيين لشركات التكنولوجيا الكبرى، بما في ذلك Meta وSnap وTikTok وDiscord وX. وانتقد المشرعون هذه الشركات لعدم بذلها ما يكفي لحماية الأطفال. الأطفال على الانترنت.
ردًا على ذلك، دعا NCMEC إلى إصدار تشريعات لزيادة تمويله وإتاحة الوصول إلى تكنولوجيا أكثر تقدمًا. سلط باحثو جامعة ستانفورد، الذين مُنحوا حق الوصول إلى المقابلات مع موظفي NCMEC وأنظمتهم، الضوء على نقاط الضعف والأنظمة القديمة التي تحتاج إلى تحديث عاجل.
"على مر السنين، يستمر تعقيد التقارير وشدة الجرائم ضد الأطفال في التفاقم، وبالتالي، فإن الاستفادة من الحلول التكنولوجية الناشئة في عملية CyberTipline بأكملها تؤدي إلى حماية المزيد من الأطفال ومحاسبة الجناة."
كشف تقرير ستانفورد أن أقل من نصف جميع التقارير المقدمة إلى CyberTipline في عام 2022 كانت "قابلة للتنفيذ" بسبب عدم كفاية المعلومات من الشركات المبلغة أو الانتشار السريع للصور عبر الإنترنت، مما أدى إلى تقارير متعددة مكررة. يتفاقم عدم الكفاءة هذا من خلال وجود خيار في نظام سطر النصائح لوضع علامة على المحتوى باعتباره ميمًا محتملاً، والذي لا يتم استخدامه غالبًا.
في يوم واحد في وقت سابق من هذا العام، تلقت CyberTipline رقمًا قياسيًا بلغ مليون بلاغ عن CSAM، كان العديد منها مرتبطًا بصورة ميمي تمت مشاركتها على نطاق واسع للتعبير عن الغضب، وليس النوايا الخبيثة. وعلى الرغم من الطبيعة الحميدة لهذه التقارير، إلا أنها لا تزال تستهلك موارد تحقيقية كبيرة.
من المرجح أن يتفاقم اتجاه التقارير المتزايدة مع انتشار المحتوى الناتج عن الذكاء الاصطناعي. "إن مليون صورة متطابقة أمر صعب بما فيه الكفاية، ومليون صورة منفصلة تم إنشاؤها بواسطة الذكاء الاصطناعي من شأنها أن تحطمها"، - أليكس ستاموس، أحد مؤلفي تقرير ستانفورد.
تواجه NCMEC ومقاولوها قيودًا على استخدام موفري الحوسبة السحابية، مما يتطلب منهم تخزين الصور محليًا. يعيق هذا التقييد قدرة المنظمة على بناء واستخدام الأجهزة المتخصصة اللازمة لإنشاء وتدريب نماذج الذكاء الاصطناعي للمساعدة في تحقيقاتها. بالإضافة إلى ذلك، تفتقر المنظمة إلى التكنولوجيا اللازمة لاستخدام برامج التعرف على الوجه على نطاق واسع لتحديد الضحايا والجناة، مع استمرار إجراء الكثير من معالجة التقارير يدويًا.
مع اشتداد المعركة ضد الاعتداءات الانتحارية التي ينتجها الذكاء الاصطناعي، أصبحت الحاجة إلى حلول قوية وقابلة للتكيف أكثر إلحاحًا من أي وقت مضى. ويتوقف نضال المركز الوطني للأطفال المفقودين والأطفال المفقودين لحماية الأطفال على قدرته على التطور جنبا إلى جنب مع التهديدات التكنولوجية الناشئة، مما يضمن عدم ترك أي طفل عرضة للاستغلال.
إذا تعرضت أنت أو أي شخص تعرفه للاعتداء الجنسي على الأطفال وترغب في اتخاذ إجراء قانوني، فلدينا فريق من ذوي الخبرة موجود هنا للمساعدة. تواصل معنا اليوم على الرقم (206) 335-3880 أو (646)-421-4062 لإجراء مشاورة سرية واتخاذ الخطوة الأولى نحو تحقيق العدالة والإغلاق.