350 خبيرًا يوقعون خطابًا جديدًا يدعو إلى تنظيم تكنولوجيا الذكاء الاصطناعي 

الذكاء الاصطناعي
الذكاء الاصطناعي

تم التوقيع على خطاب مفتوح جديد يدعو إلى تنظيم عاجل للتخفيف من " تطوير الذكاء الاصطناعي '' من قبل أكثر من 350 خبيرًا في الصناعة، بما في ذلك العديد من تطوير التكنولوجيا.

اقرأ أيضاً|صعود الذكاء الاصطناعي يؤدى «انقراض البشرية»

جاء في البيان المؤلف من 22 كلمة  إلى الكونجرس أن الخطوة "يجب أن تكون أولوية عالمية إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية".

على الرغم من أن الوثيقة لا تقدم تفاصيل ، إلا أن البيان يهدف إلى إقناع صانعي السياسة بوضع خطط للحد من  تطوير وانتشار   الذكاء الاصطناعي ، تمامًا كما توجد خطط للأوبئة والحروب النووية.

تم توقيع الخطاب من قبل سام ألتمان  الرئيس التنفيذي لشركة أوبن أيه  مبتكر  روبوت الدردشة ChatGPT .

وانضم إلى ألتمان قادة معروفون آخرون في مجال الذكاء الاصطناعي ، بما في ذلك  ديميس هاسابيس من شركة ديب مايند  Google DeepMind ، وداريو أمودي من شركة  Anthropic والمديرين التنفيذيين من مايكروسوفت و  جوجل.

ومن بينهم أيضًا جيفري هينتون ويوشوا بنجيو  ، الذين يُطلق عليهم اسم "عرابين الذكاء الاصطناعي '' الذين حصلوا على جائزة تورينج لعام 2018 لعملهم في التعلم العميق - وأساتذة من مؤسسات تتراوح من جامعة هارفارد إلى جامعة تسينجهوا الصينية.

على الرغم من أن الوثيقة لا تقدم تفاصيل ، إلا أن البيان يهدف إلى إقناع صانعي السياسة بوضع خطط للحدث الذي ينتشر فيه الذكاء الاصطناعي ، تمامًا كما توجد خطط للأوبئة والحروب النووية.


كان إيلون ماسك  ومجموعة من خبراء الذكاء الاصطناعي والمديرين التنفيذيين في الصناعة أول من ذكر المخاطر المجتمعية المحتملة في أبريل. 

دعا ماسك وأكثر من 1000 من خبراء الصناعة إلى التوقف مؤقتًا عن "السباق الخطير" لتعزيز الذكاء الاصطناعي ، قائلين إنه يجب إجراء المزيد من تقييم المخاطر قبل أن يفقد البشر السيطرة ويصبح نوعًا حساسًا يكره الإنسان.

في هذه المرحلة ، سيكون الذكاء الاصطناعي قد وصل إلى التفرد ، مما يعني أنه تجاوز الذكاء البشري ولديه تفكير مستقل.

لن يحتاج الذكاء الاصطناعي أو يستمع إلى البشر بعد الآن ، مما يسمح له بسرقة الرموز النووية وخلق الأوبئة وإشعال حروب عالمية.