بين عدالة الخوارزمية وضمير الطبيب

24-12-2025 10:09 AM - عدد القراءات : 11
كتب لندن: د. عميد خالد عبد الحميد الشرق الاوسط
لم يعد الذكاء الاصطناعي في الطب ضيفاً تجريبياً، ولا فكرةً مستقبلية تُناقَش في مؤتمرات النخبة. لقد دخل العيادة بهدوء، وجلس إلى جوار الطبيب دون معطف أبيض، وبدأ يشارك في قراءة الأشعة، واقتراح خطط العلاج، وكتابة ملاحظات السجل الطبي، وأحياناً في ترتيب أولويات المرضى أنفسهم.
بين عدالة الخوارزمية وضمير الطبيب

تساؤلات أخلاقية
ومع هذا الدخول الصامت، وُلد سؤال أكبر من التقنية ذاتها: ما الذي يجب أن يعرفه المريض؟ ومَن يضمن عدالة القرار؟ ومَن يتحمّل الخطأ إن وقع؟

هذه ليست أسئلة فلسفية مجردة، بل أسئلة أخلاقية يومية، يواجهها الطب الحديث في عام 2025، في غرف الطوارئ، وعيادات الأورام، ومراكز الأشعة، وحتى في التطبيقات الصحية التي يحملها المرضى في جيوبهم.

حين يُصبح القرار مشتركاً... مَن المسؤول؟
في الطب التقليدي، كانت المسؤولية واضحة نسبياً: الطبيب يشخّص، ويقرّر، ويتحمّل تبعات قراره. أما في الطب المدعوم بالذكاء الاصطناعي، فقد أصبح القرار مشتركاً، ولكنه غير متكافئ:

- خوارزمية تقترح.

- طبيب يراجع أو يثق.

- مريض لا يرى إلا النتيجة.

فإذا أخطأت الخوارزمية في قراءة صورة، أو بالغت في تقدير خطر، أو تجاهلت متغيراً نادراً... من يُسأل؟ هل هو الطبيب الذي اعتمد عليها؟ أم المستشفى الذي اشترى النظام؟ أم الشركة التي درّبت الخوارزمية على بيانات غير مكتملة؟

هنا، لا يكفي أن نقول إن الذكاء الاصطناعي «أداة مساعدة»، فالأداة التي تُغيّر مسار قرار علاجي قد تُغيّر مصير إنسان.


عدالة الخوارزمية... هل هي محايدة حقّاً؟
يُروَّج للذكاء الاصطناعي بوصفه أكثر عدالة من البشر، لأنه لا يتعب ولا يتحيّز عاطفياً، لكن الحقيقة العلمية تقول شيئاً أكثر تعقيداً: الخوارزمية ترث تحيّزات البيانات التي دُرِّبت عليها. فإذا كانت البيانات تمثّل فئات عمرية أو عرقية أو جغرافية دون غيرها، فإن القرار الناتج قد يكون دقيقاً لفئة... وخاطئاً لأخرى.

وإذا كانت أنظمة الذكاء الاصطناعي الطبية تُدرَّب في بيئات صحية غربية متقدمة، فهل تكون قراراتها عادلة حين تُستخدم في سياقات صحية مختلفة في العالم العربي أو الدول النامية؟

العدالة هنا ليست شعاراً أخلاقياً، بل شرط علمي وسريري. خوارزمية غير عادلة قد تكون أخطر من طبيب متعب.

حق المريض في المعرفة... إلى أي حدّ؟
أحد أكثر الأسئلة حساسية اليوم هو: هل يحق للمريض أن يعرف أن قرار علاجه أسهم فيه ذكاء اصطناعي؟ أخلاقياً، يميل الجواب إلى «نعم»، فالمريض ليس مجرد متلقٍّ للعلاج، بل شريك في القرار، ومن حقه أن يعرف كيف صُنِع هذا القرار، وبأي أدوات، وعلى أي افتراضات.

لكن الواقع السريري أكثر تعقيداً. لا أحد يريد أن يُربك المريض بتفاصيل تقنية لا يفهمها، أو أن يُضعف ثقته بالعلاج، أو أن يحوّل العيادة إلى قاعة شرح خوارزميات. هنا يظهر التحدي الحقيقي: كيف نُفصح دون أن نُرهق؟ وكيف نُصارح دون أن نُقلق؟

الطريق الأخلاقي ليس في الصمت، ولا في الإغراق بالمصطلحات، بل في الإفصاح الذكي: أن يُقال للمريض، بلغة إنسانية بسيطة، إن النظام ساعد الطبيب في التحليل، لكن القرار النهائي بقي بيد الإنسان، وتحت مسؤوليته.

الطبيب بين الثقة والكسل المعرفي
مع ازدياد دقة الأنظمة الذكية، يواجه الأطباء خطراً صامتاً لا يُناقَش كثيراً: الكسل المعرفي. إذ حين يعتاد الطبيب على أن «الخوارزمية لا تخطئ»، قد يتراجع دوره من ناقد علمي إلى مُصدِّق تقني. وهنا لا يصبح الذكاء الاصطناعي مساعداً، بل سلطة خفية.

الطب، في جوهره، ليس قراءة أرقام فقط، بل فهم سياق: مريض قلق، تاريخ اجتماعي، عوامل نفسية، تفاصيل لا تظهر في البيانات. والخطر الحقيقي ليس أن تُخطئ الخوارزمية، بل أن يتوقف الطبيب عن مساءلتها.

أخلاقيات الذكاء الاصطناعي لا تُطالب الأطباء برفض التقنية، بل تطالبهم بشيء أبسط وأعمق: أن يبقى الضمير يقظاً، والعقل ناقداً، وألا يُسلِّم القرار الطبي النهائي إلا بعد فهمه، لا بعد نسخه.


الشفافية... حين لا نفهم كيف وصل القرار
واحدة من أعقد المعضلات الأخلاقية اليوم هي ما يُعرف بـ«الصندوق الأسود»، فكثير من أنظمة الذكاء الاصطناعي الطبية تصل إلى قرارات دقيقة إحصائياً، لكنها تعجز عن شرح كيف ولماذا وصلت إلى هذه النتيجة.

فكيف يُحاسَب قرار لا يمكن تفسيره؟ وكيف يُناقَش تشخيص لا نعرف مساره المنطقي؟ وهل يجوز أخلاقياً أن نُخضع مريضاً لعلاج، لأن «الخوارزمية قالت ذلك»، دون تفسير قابل للفهم البشري؟

الطب لا يعيش على الدقة وحدها، بل على الشرح والثقة. والمريض لا يطلب دائماً نسبة مئوية، بل يريد أن يفهم. ولهذا، فإن أخلاقيات الذكاء الاصطناعي في الطب تدفع اليوم بقوة نحو ما يُسمّى «الذكاء القابل للتفسير»، لا لأنه أجمل علمياً، بل لأنه أكثر إنسانية.

المساءلة القانونية... فراغ يتّسع
إذا حدث الخطأ، يبدأ السؤال الأصعب: مَن يُحاسَب؟ القوانين الصحية في معظم دول العالم لم تُصمَّم لعصر تشارُك القرار بين الإنسان والآلة. فلا هي تُدين الخوارزمية، ولا تُعفي الطبيب، ولا تُحدِّد بوضوح مسؤولية الشركات المطوِّرة.

هذا الفراغ القانوني ليس تفصيلاً إدارياً، بل خطر أخلاقي حقيقي.

فمن دون مساءلة واضحة، قد يُغري الذكاء الاصطناعي بعض الأنظمة الصحية بتوسيع استخدامه بلا ضوابط، أو تحميل الطبيب وحده مسؤولية قرار لم يصنعه منفرداً، ولهذا، فإن النقاش الأخلاقي اليوم لم يعد ترفاً أكاديمياً، بل ضرورة تشريعية: قوانين تُحدِّد المسؤولية، وتحمي المريض، وتُعيد رسم حدود الثقة بين الإنسان والتقنية.

الخلاصة: حين تسبق الخوارزمية... يجب أن يتقدّم الضمير
الذكاء الاصطناعي في الطب ليس شراً ولا خلاصاً. إنه مرآة لما نضعه فيه: بياناتنا، وقيمنا، وانحيازاتنا.

فإن قُدِّم بلا أخلاق، تحوّل إلى أداة باردة، وإن وُضع في يد طبيب بلا مساءلة، أصبح سلطة صامتة. وإن أُدير بحكمة، أعاد للطب جوهره الأصيل: أن يُنقذ الإنسان دون أن يُلغيه.

وكما قال ابن سينا قبل ألف عام: «العلم بلا ضمير خطر على النفس». وفي عصر الخوارزميات، لعل أخطر ما نخسره ليس الخطأ التقني... بل أن ننسى أن الطب، في النهاية، فعل رحمة قبل أن يكون قراراً ذكياً.



© 2012 جميع الحقوق محفوظة لــ المركز العربى لأبحاث الفضاء الالكترونى
>