الأطباء يحذرون من استخدام ChatGPT للحصول على المشورة الصحية 

ارشيفية
ارشيفية

يحذر الأطباء من استخدام روبوت ChatGPT للحصول على المشورة الطبية بعد أن وجدت دراسة أنها تتكون من بيانات صحية عند طلب معلومات حول السرطان .

 

أجاب روبوت الدردشة بالذكاء الاصطناعي على واحد من كل عشرة أسئلة حول فحص سرطان الثدي بشكل خاطئ ولم تكن الإجابات الصحيحة "شاملة" مثل تلك التي تم العثور عليها من خلال بحث بسيط على جوجل .

 

قال الباحثون إنه في بعض الحالات ، استخدم روبوت الدردشة المزود بالذكاء الاصطناعي مقالات صحفية مزيفة لدعم مزاعمه.

يأتي ذلك وسط تحذيرات من أن المستخدمين يجب أن يتعاملوا مع البرنامج بحذر لأنه يميل إلى "الهلوسة" - بعبارة أخرى اختلاق الأشياء.

 

طلب باحثون من كلية الطب بجامعة ميريلاند من ChatGPT الإجابة عن 25 سؤالًا متعلقًا بالنصائح حول الكشف عن سرطان الثدي.

 

 تم طرح كل سؤال ثلاث مرات منفصلة، ثم تم تحليل النتائج من قبل ثلاثة أطباء أشعة مدربين على التصوير الشعاعي للثدي.

 

كانت "الغالبية العظمى" - 88 بالمائة - من الإجابات مناسبة وسهلة الفهم، لكنهم حذروا من أن بعض الإجابات كانت "غير دقيقة أو حتى وهمية".

 

قدم ChatGPT أيضًا ردودًا غير متسقة على الأسئلة المتعلقة بخطر الإصابة بسرطان الثدي ومكان الحصول على صورة الثدي الشعاعية، وجدت الدراسة أن الإجابات "متنوعة بشكل كبير" في كل مرة طُرح فيها نفس السؤال.