باحثون في مجال الذكاء الاصطناعي يزيلون صور انتهاكات جنسية بحق أطفال

31 اغسطس 2024
حذف أكثر من ألفَي رابط على الإنترنت (Getty)
+ الخط -

قال باحثون في مجال الذكاء الاصطناعي، يوم الجمعة، إنهم حذفوا أكثر من ألفَي رابط على الإنترنت لصور انتهاكات جنسية بحق الأطفال من مجموعة بيانات شهيرة تستخدم للتدريب على أدوات توليد الصور بالذكاء الاصطناعي.

تُعد قاعدة بيانات البحث "لايون" فهرساً ضخماً للصور والتعليقات التوضيحية عبر الإنترنت التي كانت مصدراً لصانعي الصور بالذكاء الاصطناعي مثل "ميدجورني" و"ستابل ديفوجن".

لكن تقريراً صدر العام الماضي عن مرصد ستانفورد للإنترنت وجد أنها تحتوي على روابط لصور انتهاكات جنسية صريحة للأطفال، ما يساهم في سهولة تمكن بعض أدوات الذكاء الاصطناعي من إنتاج صور مزيفة واقعية للأطفال.

دفع تقرير ديسمبر/ كانون الأول "لايون"، الذي يرمز إلى شبكة الذكاء الاصطناعي المفتوحة واسعة النطاق غير الربحية، إلى إزالة مجموعة بياناتها على الفور.

أعلنت "لايون" بعد ثمانية أشهر، في منشور على مدونتها، أنها عملت مع مجموعة مراقبة جامعة ستانفورد ومنظمات مكافحة الاستغلال في كندا والمملكة المتحدة لإصلاح المشكلة وإصدار مجموعة بيانات منقحة لأبحاث الذكاء الاصطناعي في المستقبل.

وأشاد الباحث في جامعة ستانفورد ديفيد ثيل، مؤلف تقرير ديسمبر/ كانون الأول، بـ"لايون" والتحسينات الكبيرة، لكنه قال إن الخطوة التالية تتمثل في سحب "النماذج الملوثة" بصور انتهاكات جنسية من التوزيع، وهي النماذج التي لا تزال قادرة على إنتاج صور إساءة معاملة الأطفال.

ظلت إحدى الأدوات المستندة إلى "لايون" وحددتها جامعة ستانفورد على أنها النموذج الأكثر شعبية لتوليد الصور الصريحة - وهي نسخة أقدم ومفلترة قليلاً من ستابل دفيوجن - يمكن الوصول إليها بسهولة حتى يوم الخميس، عندما أزالتها شركة "رن واي إم إل"، ومقرها نيويورك، من مستودع نماذج الذكاء الاصطناعي هاغنغ فيس. وقالت "ران وي" في بيان يوم الجمعة إنه "إلغاء مخطط لنماذج البحث والرمز التي لم تُجر صيانتها بنشاط".

تأتي النسخة المنظفة من مجموعة بيانات "لايون" في الوقت الذي تلقي فيه الحكومات في جميع أنحاء العالم نظرة فاحصة على كيفية استخدام بعض الأدوات التقنية لصنع أو توزيع صور غير قانونية للأطفال.

(أسوشييتد برس)

المساهمون