«ميتا» تكشف عن آلية نظام الذكاء الإصطناعي لمكافحة المحتوى الضار

الذكاء الاصطناعي
الذكاء الاصطناعي

أعلنت شركة ميتا «فيسبوك» سابقاً،عن بناء تقنية ذكاء اصطناعي جديدة، يمكنها التكيف بسهولة أكبر لاتخاذ إجراءات بشأن أنواع جديدة أو متطورة من المحتوى الضار بشكل أسرع.

وقالت ميتا: «يستخدم نظام الذكاء الاصطناعي الجديد «few-shot learning»، بدءًا من الفهم العام للموضوع ثم يستخدم عددًا أقل من الأمثلة المصنفة لتعلم مهام جديدة، فيما يستمر المحتوى الضار في التطور بسرعة - سواء كان مدفوعاً بالأحداث الجارية أو الأشخاص الذين يبحثون عن طرق جديدة للتهرب من أنظمتنا - ومن المهم جداً أن تتطور أنظمة الذكاء الاصطناعي لتواكب مثل هذا المحتوى."

أقرأ ايضا.. علماء يصممون نظام يستخدم الذكاء الاصطناعي لمحاكمة المجرمين

وأوضحت الشركة قائلة: « الذكاء الاصطناعي وعادة ما يستغرق عدة أشهر لجمع وتسمية الآلاف، إن لم يكن الملايين، من الأمثلة اللازمة لتدريب كل نظام ذكاء اصطناعي فردي لاكتشاف نوع جديد من المحتوى، ولمعالجة هذه العقبة، قمنا مؤخراً ببناء ونشر تقنية ذكاء اصطناعي جديدة تسمى (Few-Shot Learner" (FSL" يمكنها التكيف لاتخاذ إجراءات بشأن الأنواع الجديدة أو المتطورة من المحتوى الضار في غضون أسابيع بدلاً من أشهر.

وأضافت ميتا: «يستخدم نظام الذكاء الاصطناعي الجديد هذا طريقة جديدة نسبيا تسمى "few-shot learning"، حيث تبدأ النماذج بفهم عام وكبير للعديد من الموضوعات المختلفة ثم تستخدم أمثلة أقل بكثير، وفي بعض الحالات صفر، يتم تحديدها لتعلم مهام جديدة، تقنية FSL لا تعمل بأكثر من 100 لغة فقط بل تتعلم أيضا من أنواع مختلفة من البيانات، مثل الصور والنصوص، ستساعد هذه التقنية الجديدة في تعزيز أساليبنا الحالية لمعالجة المحتوى الضار.»

وبحسب الشركة يعمل النظام الجديد عبر ثلاثة سيناريوهات مختلفة، يتطلب كل منها مستويات مختلفة من الأمثلة المسماة، الأول هو صفر لقطات أو أوصاف السياسة بدون أي أمثلة، والثاني هو لقطات قليلة مع العرضأو أوصاف السياسة مع مجموعة صغيرة من الأمثلة (ن<50)، وأما الثالث فهو لقطات قليلة مع صقل، حيث يمكن لمطورين ML الصقل وفقاً لنموذج قاعدة FSL مع عدد قليل من الأمثلة التدريبية.

وقالت ميتا: «اختبرنا FSL على عدد من الأحداث الجديدة، فعلى سبيل المثال، كانت إحدى المهام الحديثة هي تحديد المحتوى الذي يشارك معلومات مضللة أو مثيرة بطريقة من المرجح أن تثبط التطعيم ضد فيروس كورونا المستجد (على سبيل المثال، "لقاح أو مغير الحمض النووي؟")، وفي مهمة أخرى منفصلة، قام نظام الذكاء الاصطناعي الجديد بتحسين مُصَنِف موجود بالفعل يبرز المحتوى الذي يقترب من التحريض على العنف (على سبيل المثال، "هل يحتاج هذا الرجل إلى كل أسنانه؟").

وتابعت ميتا: «قد يكون النهج التقليدي قد فوت هذه الأنواع من المنشورات الضارة، حيث لا توجد العديد من الأمثلة المسماة التي تستخدم لغة الحمض النووي للإيحاء بالتردد تجاه اللقاح أو الإشارة إلى الأسنان للتحريض على العنف. . لقد رأينا أيضا أنه، بالاشتراك مع المصنفين الحاليين، و الجهود المبذولة لتقليل المحتوى الضار بالإضافة إلى التحسينات المستمرة في تقنيتنا والتغييرات التي أجريناها لتقليل المحتوى الإشكالي في "آخر الأخبار"، ساعد FSL في تقليل انتشار المحتوى الضار الآخر مثل خطاب الكراهية."

وأشارت قائلة: «نعتقد أن FSL يمكنه، مع مرور الوقت، تعزيز أداء جميع أنظمة نزاهة الذكاء الاصطناعي من خلال السماح لها بالاستفادة من قاعدة معرفية وعمود فقري واحد مشترك للتعامل مع العديد من أنواع الانتهاكات المختلفة، ولكن يمكن أن يساعد أيضاً في سير العمل في مجال السياسات التسميات، ومسارات التحقيق لسد الفجوة بين البصيرة البشرية وتقدم المُصَنِف.»