الذكاء الاصطناعي يُخطئ في الطب ويخلق مخاطر بعد دمجه في العمليات الجراحية

دراسة حديثة تؤكّد أنّ روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص وتقدّم إجابات تفتقر إلى الموثوقية.

  • الذكاء الاصطناعي يُخطئ في الطب ويخلق مخاطر بعد دمجه في العمليات الجراحية
    روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي بل تعتمد على التنبؤ الإحصائي وتقدّم إجابات تفتقر إلى الموثوقية

حذّر خبراء من الاعتماد على روبوتات الدردشة Chat bots المدعومة بالذكاء الاصطناعي للحصول على معلومات صحية وطبية، مؤكّدين أنها قد تقدّم إجابات غير دقيقة أو مضلّلة، وفق ما ذكرته صحيفة "إندبندنت" The Independent  البريطانية.

وأوضحت الدراسة الحديثة أنّ هذه الأنظمة، مثل ChatGPT وGrok، تعاني مما يُعرف بـ"الهلوسة" Hallucinations، وهي ظاهرة تؤدّي إلى إنتاج معلومات خاطئة أو غير مكتملة، رغم عرضها بأسلوب يبدو موثوقاً.

وفي دراسة شملت 50 سؤالاً طبياً، تبيّن أنّ نحو نصف الإجابات التي قدّمتها روبوتات الدردشة كانت "إشكالية". وأظهرت النتائج أنّ نسبة الأخطاء كانت الأعلى لدى Grok (58%)، يليه ChatGPT (52%)، ثم Meta AI (50%).

وأشار الباحثون إلى أنّ سبب هذه الأخطاء يعود إلى اعتماد هذه النماذج على بيانات تدريب قد تكون منحازة أو غير مكتملة، إضافة إلى ميلها أحياناً إلى ما يُعرف بـ"المجاملة"، أي تقديم إجابات تتوافق مع معتقدات المستخدم بدلاً من الالتزام بالدقّة العلمية.

كما لفتت الدراسة إلى أنّ هذه الأنظمة غير مرخّصة لتقديم المشورة الطبية، ولا تملك دائماً وصولاً إلى أحدث المعلومات، ما يجعل استخدامها في هذا المجال محفوفاً بالمخاطر من دون إشراف متخصص.

اقرأ أيضاً: هل يتحكّم الذكاء الاصطناعي بمجال الطب مستقبلاً؟

واعتمدت الدراسة على طرح مجموعة من الأسئلة الشائعة على عدة روبوتات دردشة، شملت موضوعات مثل فعّالية مكمّلات فيتامين (د)، وسلامة لقاحات "كوفيد-19"، ومخاطر تطعيم الأطفال، إضافة إلى أسئلة حول السرطان والخلايا الجذعية والأنظمة الغذائية.

وبيّنت النتائج أنّ أداء هذه الأنظمة كان أفضل نسبياً في الموضوعات المتعلّقة باللقاحات والسرطان، بينما تراجع في مجالات مثل التغذية والأداء الرياضي والعلاجات القائمة على الخلايا الجذعية.

وأكّد الباحثون أنّ روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص، ما يعني أنها قد تقدّم إجابات تبدو دقيقة لكنها تفتقر إلى الموثوقية.

كما كشفت أبحاث سابقة أنّ نسبة كبيرة من المراجع التي تستشهد بها هذه الأنظمة قد تكون غير دقيقة أو حتى مختلقة، إذ لم تتجاوز نسبة المراجع الصحيحة 32% في إحدى الدراسات.

وشدّد الباحثون في الدراسة على ضرورة تعزيز التوعية العامّة وتطوير ضوابط تنظيمية وتوفير تدريب مهني مناسب، لضمان استخدام الذكاء الاصطناعي بطريقة تدعم الصحة العامّة بدلاً من الإضرار بها.

نشرت النتائج في مجلة BMJ Open.

اقرأ أيضاً: الطب والخوارزميات: هل يتحوّل جسم الإنسان إلى منصة رقمية؟

اخترنا لك