الذكاء الاصطناعي يُخطئ في الطب ويخلق مخاطر بعد دمجه في العمليات الجراحية
دراسة حديثة تؤكّد أنّ روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص وتقدّم إجابات تفتقر إلى الموثوقية.
-
روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي بل تعتمد على التنبؤ الإحصائي وتقدّم إجابات تفتقر إلى الموثوقية
حذّر خبراء من الاعتماد على روبوتات الدردشة Chat bots المدعومة بالذكاء الاصطناعي للحصول على معلومات صحية وطبية، مؤكّدين أنها قد تقدّم إجابات غير دقيقة أو مضلّلة، وفق ما ذكرته صحيفة "إندبندنت" The Independent البريطانية.
وأوضحت الدراسة الحديثة أنّ هذه الأنظمة، مثل ChatGPT وGrok، تعاني مما يُعرف بـ"الهلوسة" Hallucinations، وهي ظاهرة تؤدّي إلى إنتاج معلومات خاطئة أو غير مكتملة، رغم عرضها بأسلوب يبدو موثوقاً.
وفي دراسة شملت 50 سؤالاً طبياً، تبيّن أنّ نحو نصف الإجابات التي قدّمتها روبوتات الدردشة كانت "إشكالية". وأظهرت النتائج أنّ نسبة الأخطاء كانت الأعلى لدى Grok (58%)، يليه ChatGPT (52%)، ثم Meta AI (50%).
AI чатботуудын өгдөг эрүүл мэндийн зөвлөгөөний 50 хувь нь алдаатай байгааг судалгаагаар тогтоожээ https://t.co/iiMd8iaT40
— Bloomberg TV Mongolia (@BloombergTVM) April 15, 2026
وأشار الباحثون إلى أنّ سبب هذه الأخطاء يعود إلى اعتماد هذه النماذج على بيانات تدريب قد تكون منحازة أو غير مكتملة، إضافة إلى ميلها أحياناً إلى ما يُعرف بـ"المجاملة"، أي تقديم إجابات تتوافق مع معتقدات المستخدم بدلاً من الالتزام بالدقّة العلمية.
كما لفتت الدراسة إلى أنّ هذه الأنظمة غير مرخّصة لتقديم المشورة الطبية، ولا تملك دائماً وصولاً إلى أحدث المعلومات، ما يجعل استخدامها في هذا المجال محفوفاً بالمخاطر من دون إشراف متخصص.
اقرأ أيضاً: هل يتحكّم الذكاء الاصطناعي بمجال الطب مستقبلاً؟
واعتمدت الدراسة على طرح مجموعة من الأسئلة الشائعة على عدة روبوتات دردشة، شملت موضوعات مثل فعّالية مكمّلات فيتامين (د)، وسلامة لقاحات "كوفيد-19"، ومخاطر تطعيم الأطفال، إضافة إلى أسئلة حول السرطان والخلايا الجذعية والأنظمة الغذائية.
وبيّنت النتائج أنّ أداء هذه الأنظمة كان أفضل نسبياً في الموضوعات المتعلّقة باللقاحات والسرطان، بينما تراجع في مجالات مثل التغذية والأداء الرياضي والعلاجات القائمة على الخلايا الجذعية.
AI chatbots misdiagnose in over 80% of early medical cases, @AryaRao_ et al study finds: Top models including OpenAI and DeepSeek make judgments too quickly when patient data is incomplete https://t.co/kV60hArDcG via @Mikepeeljourno @HamiltonMorrin
— Ash Paul (@pash22) April 13, 2026
وأكّد الباحثون أنّ روبوتات الدردشة لا تحلّل الأدلة العلمية بشكل حقيقي، بل تعتمد على التنبؤ الإحصائي لتوليد النصوص، ما يعني أنها قد تقدّم إجابات تبدو دقيقة لكنها تفتقر إلى الموثوقية.
كما كشفت أبحاث سابقة أنّ نسبة كبيرة من المراجع التي تستشهد بها هذه الأنظمة قد تكون غير دقيقة أو حتى مختلقة، إذ لم تتجاوز نسبة المراجع الصحيحة 32% في إحدى الدراسات.
وشدّد الباحثون في الدراسة على ضرورة تعزيز التوعية العامّة وتطوير ضوابط تنظيمية وتوفير تدريب مهني مناسب، لضمان استخدام الذكاء الاصطناعي بطريقة تدعم الصحة العامّة بدلاً من الإضرار بها.
نشرت النتائج في مجلة BMJ Open.
The liability math here is brutal and nobody's talking about it. If an AI misses a cancer and a radiologist wasn't in the loop, who gets sued? Right now the answer is still "whoever has an MD," but that's only because no plaintiff's attorney has landed the right case yet. The…
— Thoughts on Healthcare Markets and Tech (@thoughtson_tech) April 14, 2026