بعد اجتيازه اختبار الترخيص الطبي الأميركي.. هل يمكن أن يكون ChatGPT طبيباً؟

EB3B25C8 8DB8 4E4D BDF9 6A49150A0D8B Cedar News اجتيازه

تعاون الدكتور إسحاق كوهين الطبيب وعالم الكمبيوتر في جامعة هارفارد مع اثنين من زملائه لاختبار  GPT-4، بهدف رئيسي واحد هو معرفة كيفية أداء أحدث نموذج ذكاء اصطناعي من OpenAI في مجال الطب.

يقول في كتابه الذي سيصدر قريباً “ثورة الذكاء الاصطناعي في الطب” إن GPT-4 – الذي تم إصداره في مارس/آذار 2023 للمشتركين الذين يدفعون رسومًا – يجيب على أسئلة ترخيص الفحص الطبي في الولايات المتحدة بشكل صحيح بنسبة تتجاوز 90%، فكان أداؤه أفضل بكثير من نماذجChatGPT السابقة و GPT-3 و -3.5 وأفضل من بعض الأطباء المرخصين أيضًا.

ومع ذلك، فإن GPT-4 ليس مجرد مجيب جيد على الاختبار ومكتشف للحقائق، إنه أيضًا مترجم قوي، فهو قادر على ترجمة بيانات مريض يتحدث البرتغالية، وتبسيط المصطلحات التقنية غير التقليدية إلى شيء يمكن قراءته بسهولة.

يمكن لـ GPT-4 أيضًا أن يقدم نصائح للأطباء حول كيفية التحدث إلى المرضى حول ظروفهم بلغة رحيمة وواضحة، ويمكنه قراءة التقارير أو الدراسات المطولة وتلخيصها في غمضة عين. 

ولكن إذا سألت GPT-4 عن كيفية قيامه بكل هذا، فمن المحتمل أن يخبرك أن كل ذكاءه لا يزال “مقصورًا على أنماط في البيانات ولا يتضمن فهمًا حقيقيًا أو عن قصد.” هذا ما قاله GPT-4 لمؤلف الكتاب، عندما سأله عما إذا كان بإمكانه فعلاً الانخراط في التفكير السببي. 

حتى مع وجود مثل هذه القيود، كما اكتشف كوهين في الكتاب، يمكن لـ GPT-4 محاكاة كيفية تشخيص الأطباء للحالات بنجاح مذهل – وإن كان غير كامل.

كيف يمكن لـ GPT-4 التشخيص كطبيب؟

قام كوهين بتجربة فكرية إكلينيكية باستخدام GPT-4 في الكتاب، بناءً على حالة من الحياة الواقعية تضمنت طفلًا حديث الولادة عالجه قبل عدة سنوات. 
بإعطاء الروبوت بعض التفاصيل الأساسية حول الطفل جمعها من الفحص البدني، بالإضافة إلى بعض المعلومات من مستويات الموجات فوق الصوتية والهرمونات، كان الروبوت قادرًا على تشخيص هذه الحالة – وهي واحدة من كل 100 ألف حالة تسمى تضخم الغدة الكظرية الخلقي – بشكل صحيح تمامًا كما فعل كوهين مع كل سنوات دراسته وخبرته، على حد قوله.

GPT-4 ليس صحيحًا دائمًا وليس له بوصلة أخلاقية

لا يمكن الاعتماد على GPT-4 دائمًا، والكتاب مليء بأمثلة على أخطائه، وهي تتراوح من الأخطاء الكتابية البسيطة، مثل الخطأ في تقدير مؤشر كتلة الجسم الذي قام الروبوت بحسابه بشكل صحيح قبل لحظات، إلى الأخطاء الحسابية مثل “حل” لغز سودوكو بشكل غير دقيق. 
غالبًا ما تكون الأخطاء خفية، ويميل النظام إلى التأكيد على صحة معلوماته، حتى عند الاعتراض عليه. ليس من المبالغة أن نتخيل كيف يمكن أن يؤدي الرقم الخاطئ أو الوزن الخاطئ إلى أخطاء جسيمة في الوصفات الطبية أو التشخيص.

بسؤاله عن هذا الأمر، قال GPT-4: “لا أنوي خداع أو تضليل أي شخص، لكنني أحيانًا أرتكب أخطاء أو أقدم افتراضات بناءً على بيانات غير كاملة أو غير دقيقة، كما أنني لا أمتلك الحكم السريري أو المسؤولية الأخلاقية لطبيب أو ممرضة بشرية”.

من الواضح أن GPT-4 لديه القدرة على توفير الوقت الثمين والموارد في العيادات، مما يسمح للأطباء بأن يكونوا أكثر حضوراً مع المرضى، بدلاً من تركيزهم في شاشات الكمبيوتر.

مسؤلية الخبر: إن موقع "سيدر نيوز" غير مسؤول عن هذا الخبر شكلاً او مضموناً، وهو يعبّر فقط عن وجهة نظر مصدره أو كاتبه.

Comments are closed.