دراسة: ربع المؤسسات الحكومية توفر خدمات معززة بالذكاء الاصطناعي في 2027

 الذكاء الاصطناعي
الذكاء الاصطناعي

أشارت دراسة جديدة لشركة جارتنر العالمية للأبحاث، أن أقل من 25% من المؤسسات الحكومية سيكون لديها خدمات تعامل مباشر مع المواطنين معززة بالذكاء الاصطناعي وذلك بحلول عام 2027.

وبيّنت الدراسة أن الخوف من الفشل العام والافتقار إلى ثقة المجتمع بالاستخدام الحكومي للتكنولوجيا سيؤديان إلى إبطاء اعتماد التكنولوجيا للاستخدام الخارجي مع المواطنين.

وكما هو الحال مع باقي القطاعات خلال الأشهر الـ15 الماضية، تقوم الحكومات باستطلاع الفرص والمخاطر المرتبطة بانتشار الذكاء الاصطناعي التوليدي.

وأظهر الاستبيان العالمي الذي أجرته جارتنر لأكثر من 2,400 رئيس تنفيذي لشؤون المعلومات وتنفيذيين عاملين في مجال التكنولوجيا أن 25% من الحكومات نشرت أو تخطط لنشر الذكاء الاصطناعي التوليدي خلال الأشهر الـ12 المقبلة، وأن نسبة 25% إضافية تخطط لنشره خلال الأشهر الـ24 المقبلة.

وكان التركيز في المراحل الأولى على تأسيس شبكة حوكمة أولية لدعم التجارب والاعتماد على نطاق ضيق.

اقرأ أيضاً.. كيف يحول الذكاء الاصطناعي التوليدي الأفكار إلى حقيقة؟

وقال دين لاتشيكا، نائب الرئيس للتحليلات لدى جارتنر: "على الرغم من الفائدة التي تحققها الحكومات منذ أعوام طويلة من استخدام تقنيات ذكاء اصطناعي أكثر نضجاً، إلا أن المخاطر وحالة عدم اليقين تسهم في إبطاء اعتماد الذكاء الاصطناعي التوليدي على نطاق واسع، وخاصة بسبب الافتقار إلى الضوابط التقليدية للتخفيف من حدة الانجراف بعيداً والأوهام المرتبطة بهذه التكنولوجياK بالإضافة إلى ذلك، فإن الافتقار إلى التعاطف في تقديم الخدمات والفشل في تلبية توقعات المجتمع سيؤديان إلى إضعاف القبول العام لاستخدام الذكاء الاصطناعي التوليدي في خدمات التعامل المباشر مع المواطنين".

التوفيق بين الاعتماد والاستعداد للمخاطرة

وبهدف إيجاد حل لهذه المسألة، توصي جارتنر الحكومات بمواصلة النشر النشط لحلول الذكاء الاصطناعي التوليدي التي تحسن من الجوانب الداخلية لخدمات المواطنين.

وأضاف لاتشيكا: "يجب على اعتماد الذكاء الاصطناعي التوليدي من قبل المؤسسات الحكومية أن يواكب استعدادها للمخاطرة وذلك لضمان عدم تسبب الخطوات الخاطئة لاستخدام الذكاء الاصطناعي في إضعاف قبول المجتمع للتكنولوجيا في مجال تقديم الخدمات الحكومية، ما يعني بأن الفرص في مكاتب العمليات الخلفية سوف تتطور بوتيرة أسرع من استخدامات التكنولوجيا لخدمة المواطنين مباشرة".

ويمكن للمؤسسات الحكومية وفقاً لشركة جارتنر أن تسرّع اعتماد الذكاء الاصطناعي التوليدي من خلال التركيز على حالات الاستخدام التي تؤثر بشكل رئيسي على الموارد الداخلية، وتجنب المخاطر المتوقعة المرتبطة بخدمات التعامل المباشر مع المواطنين، وبناء المعارف والمهارات المرتبطة بالتكنولوجيا. كما يجب على المؤسسات الحكومية بناء الثقة وتخفيف المخاطر ذات الصلة عبر وضع أطر عمل شفافة لحوكمة وضمانات الذكاء الاصطناعي لتشمل كل من قدرات الذكاء الاصطناعي المطورة داخلياً والتي يتم شراؤها كذلك.

وتابع لاتشيكا: "تحتاج أطر العمل هذه على وجه الخصوص إلى معالجة المخاطر المرتبطة بحالات الاستخدام الخاصة بخدمات التعامل المباشر مع المواطنين مثل النتائج غير الدقيقة أو المضللة، وخصوصية البيانات، والمحادثات الآمنة. ويمكن تحقيق ذلك من خلال ضمان قيام إجراءات الحوكمة بمعالجة كل من تلك المخاطر قبل مرحلة التنفيذ الأولي وبعدها".

وبالإضافة إلى ذلك فإنه يجب على المؤسسات الحكومية تطبيق ممارسات قائمة على التعاطف في ما يخص الهياكل المتمحورة حول العنصر البشري وذلك عند تصميم استخدامات حلول ذكاء اصطناعي في خدمات التعامل المباشر مع المواطنين أو أفراد طواقم العمل، الأمر الذي يضمن بقاء الحلول متوافقة مع توقعات المجتمع وذلك عندما يتعلق الامر بتحديد كيفية ومتى يجب استخدامها من منظور التعامل المباشر مع المواطنين".