بالخطأ.. «يوتيوب» يضع«كلمات غير لائقة» بمقاطع فيديو موجهة للأطفال

يوتويب الأطفال
يوتويب الأطفال

قامت خوارزمية ذكاء اصطناعي يستخدمها موقع الفيديو الشهير «يوتيوب YouTube »، بإضافة تسميات توضيحية إلى المقاطع تلقائيًا بإدخال لغة صريحة عن طريق الخطأ في مقاطع فيديو الأطفال.

وقد تم العثور على النظام ، المعروف باسم ASR «النسخ التلقائي للكلام» ، وهو يعرض كلمات مثل الذرة على أنها إباحية ، وشاطئ مثل الكلبة ، والشجاع مثل الاغتصاب ، كما ذكر موقع Wired.

وقد أخذ فريق من معهد روتشستر للتكنولوجيا في نيويورك ، جنبًا إلى جنب مع آخرين ، عينات من 7000 مقطع فيديو من 24 قناة أطفال من الدرجة الأولى ، ومن بين مقاطع الفيديو التي أخذوها عينات ، كان لدى 40 في المائة كلمات «غير لائقة» في التسميات التوضيحية ، وكان لدى واحد في المائة كلمات غير لائقة للغاية.

ولقد نظر الفريق إلى مقاطع فيديو الأطفال على الإصدار الرئيسي من يوتيوب YouTube ، بدلاً من منصة يوتيوب الأطفال YouTube Kids ، التي لا تستخدم التسميات التوضيحية المكتوبة تلقائيًا ، حيث كشفت الأبحاث أن العديد من الآباء لا يزالون يضعون الأطفال أمام الإصدار الرئيسي.

وقال الفريق ، إنه باستخدام نماذج لغوية ذات جودة أفضل ، والتي تُظهر مجموعة متنوعة من طرق النطق ، يمكن تحسين النسخ التلقائي عبر منصة الفيديو.

أقرأ أيضا..4 طرق تعزز الأمان وتحسن الاستخدام بموقع «يوتيوب» 

وبينما بدأ البحث في الكشف عن المحتوى المسيء وغير اللائق في إزالة المواد ، لم يتم عمل الكثير لاستكشاف "المحتوى العرضي" ، حيث يتضمن ذلك التعليقات المضافة بواسطة الذكاء الاصطناعي إلى مقاطع الفيديو ، والمصممة لتحسين إمكانية الوصول للأشخاص الذين يعانون من ضعف السمع ، والعمل دون تدخل بشري.

ووجد الفريق أن أنظمة التعرف التلقائي على الكلام (ASR) المعروفة قد تنتج محتوى نصيًا غير ملائم للغاية للأطفال أثناء نسخ مقاطع فيديو يوتيوب الأطفال YouTube Kids"، مضيفُا الفريق: "نحن نصف هذه الظاهرة بأنها هلوسة محتوى غير لائق".

وتابع الفريق: "تشير تحليلاتنا إلى أن مثل هذه الهلوسة بعيدة كل البعد عن أن تكون عرضية ، فهي تعمل مثل برنامج تحويل الكلام إلى نص ، والاستماع إلى الصوت ونسخه ، وتعيين طابع زمني ، بحيث يمكن عرضه كتعليق أثناء نطقه ، ومع ذلك ، في بعض الأحيان يخطئ في ما يقال ، خاصةً إذا كانت لهجة كثيفة ، أو كان الطفل يتحدث ولا ينطق بشكل صحيح".