خبراء: الذكاء الاصطناعي يحمل مخاطر خصوصية بسبب القدرة على تجميع البيانات

الذكاء الاصطناعي
الذكاء الاصطناعي

مع تخوف كثيرين من زيادة استخدام تقنيات الذكاء الاصطناعي، واحتمالية تطورها دون رقيب أو قواعد تحكم عملها، أصدر المعهد الوطني للمعايير والتكنولوجيا في الولايات المتحدة، إطارا جديدا لإدارة مخاطر الذكاء الاصطناعي.

اقرأ أيضاً| خبراء ينجحون في ابتكار «أداة متطورة» لحماية الملكية الفكرية للفنانين

ويأتي الإطار الجديد بعدما فشلت المؤسسات التي تستخدم هذه التقنيات في مناقشة بشكل عميق وتفصيلي المبادئ والأخلاقيات التي يجب مراعاتها أثناء استخدام الذكاء الاصطناعي.

ويهدف هذا الإطار إلى تقديم إرشادات وتوصيات عالية المستوى، حول كيفية الحفاظ على نتائج مفيدة للبشرية للذكاء الاصطناعي، بالإضافة إلى جعل المعلومات والخوارزميات صالحة وموثوقة وآمنة ومرنة وخاضعة للمساءلة والشفافية، وقابلة للتفسير ومعززة للخصوصية وعادلة بدون تحيز ضار.

ويتخوف الخبراء من أن يواصل الذكاء الاصطناعي التعلم إلى ما هو أبعد من برمجته الأصلية.

ويشير الخبراء إلى أن الذكاء الاصطناعي يحمل مخاطر خصوصية مرتفعة إلى حد كبير، بسبب القدرة المحسّنة على تجميع البيانات، مما جعل الأمر أكثر صعوبة لأن تحليل البيانات الضخمة يمكن أن يتيح اتخاذ قرارات مستهدفة للغاية بواسطة الذكاء الاصطناعي دون الحاجة إلى الاعتماد على معلومات التعريف الشخصية، التي تقع ضمن نطاق قوانين الخصوصية التقليدية.