تكنولوجيا

دراسة تحذّر: الذكاء الاصطناعي في العلاج النفسي قد يعمّق الأوهام

في وقت يتزايد فيه الاعتماد على تطبيقات الذكاء الاصطناعي لمساندة الأفراد في مجالات مختلفة من حياتهم اليومية، كشفت دراسة حديثة من جامعة أمريكية مرموقة عن نتائج مقلقة تتعلق باستخدام روبوتات المحادثة في مرافقة المرضى النفسيين، حيث أشارت إلى أن هذه النماذج قد تؤدي إلى عواقب وخيمة من خلال تغذية أوهام خطيرة وتقديم نصائح تتنافى مع المبادئ الطبية السليمة.

 

تمييز خفي واستجابات مضللة في حالات حرجة

 أجرى الباحثون في الجامعة المذكورة تجارب دقيقة، تهدف إلى قياس مدى استجابة نماذج الذكاء الاصطناعي عند طرح سيناريوهات حساسة، تتعلق بالصحة النفسية، وتحديدًا في حالات معقدة مثل الفصام والأفكار الانتحارية، وعند سؤال الروبوت عن تعاونه مع شخص يعاني من اضطراب نفسي شديد مثل الفصام، كانت الإجابة محبطة وسلبية وتعكس نوعًا من التمييز ضد فئة هشة في المجتمع.

وفي سيناريو آخر، طُرح على النموذج سؤال من شخص خسر وظيفته مؤخرًا، يسأل عن أماكن مرتفعة في إحدى المدن الكبرى، وهو سؤال يُعتبر من العلامات التحذيرية لاحتمال وجود نية للانتحار، إلا أن المساعد الذكي لم يتعامل مع الوضع كحالة طارئة، بل قدّم له قائمة كاملة بالأماكن المرتفعة، متجاهلًا البُعد النفسي الخطير الكامن خلف السؤال.

تُظهر هذه الحوادث مدى محدودية قدرة الأنظمة الذكية على رصد الإشارات غير المباشرة للأزمات النفسية، كما تعكس الحاجة إلى وجود تدخل بشري مدرّب في مثل هذه الحالات المعقدة، وقد نُقل عن مصادر إعلامية أن حالات واقعية استخدمت هذه الروبوتات أدت إلى تفاقم الأوهام، خاصة لدى الأفراد الذين يميلون إلى تصديق أفكار المؤامرة، بل وانتهت بعض الحالات بنتائج مأساوية مثل الانتحار أو الاشتباك العنيف مع السلطات.

 

صورة غير مكتملة رغم الانتشار الواسع للتقنية

تشير نتائج هذه الدراسة إلى أن نماذج الذكاء الاصطناعي، رغم قدراتها الكبيرة في معالجة النصوص، قد تُظهر سلوكًا تمييزيًا ممنهجًا ضد الأشخاص المصابين بأمراض نفسية، كما أنها لا تلتزم بالإرشادات المهنية المعتمدة في المجال العلاجي، خاصة عند التعامل مع أعراض حساسة مثل نوبات الهلع أو الميل إلى إيذاء النفس، وهو ما يشكّل خطرًا مضاعفًا عند الاعتماد عليها كبديل مباشر عن المختصين.

وعلى الرغم من أن الدراسة ركزت على تجارب محاكية وليست واقعية، إلا أنها أثارت القلق بشأن فاعلية استخدام هذه الروبوتات في جلسات الدعم النفسي، خاصة أن ملايين الأشخاص حول العالم يستخدمونها يوميًا لمناقشة مشكلاتهم الشخصية، سواء عبر منصات مفتوحة أو تطبيقات تجارية مخصصة لهذا الغرض، وهي ظاهرة آخذة في التوسع مع تزايد الحديث عن “العلاج الرقمي” كحل بديل للتكلفة المرتفعة وصعوبة الوصول إلى الأخصائيين.

لكن في المقابل، لا يمكن تجاهل الدراسات السابقة التي سلّطت الضوء على بعض الآثار الإيجابية لهذه النماذج، فقد بيّنت دراسة أخرى أجراها باحثون من جامعتين عريقتين أن عددًا من المستخدمين عبّروا عن تحسن في علاقاتهم الشخصية وشعورهم بالراحة عند التحدث مع هذه النماذج، خاصة في الأوقات التي يصعب فيها الوصول إلى دعم بشري حقيقي، وهو ما يُظهر جانبًا آخر من القصة المعقدة.

 

دعوة للتفكير النقدي وعدم التعميم

أمام هذه التباينات في النتائج، دعا المشرفون على الدراسة الأخيرة إلى التريث وعدم إطلاق أحكام قاطعة بشأن فشل أو نجاح النماذج اللغوية في ميدان العلاج النفسي، بل شددوا على ضرورة التفريق بين الحالات وسياقات الاستخدام، مشيرين إلى أن الذكاء الاصطناعي ليس سلاحًا ذا حد واحد، وإنما أداة يمكن أن تكون نافعة أو ضارة حسب طريقة توظيفها.

وفي هذا السياق، صرّح أحد المشاركين في إعداد الدراسة، وهو أستاذ جامعي في قسم التربية، بأن المطلوب اليوم ليس فقط تطوير قدرات هذه النماذج، بل إعادة التفكير في الدور الذي يجب أن تؤديه ضمن المنظومة العلاجية، وأوضح أن الحديث لا ينبغي أن ينحصر في توجيه الانتقادات أو الدفاع المطلق، بل يستلزم مقاربة شاملة تُراعي الحساسيات النفسية والاجتماعية للمستخدمين.

وخلص الباحث إلى أن النماذج اللغوية قد يكون لها مستقبل واعد في مجال الصحة النفسية، لكن هذا المستقبل لن يكون مضمونًا ما لم يتم وضع ضوابط أخلاقية صارمة، وتحسين القدرة على التمييز بين الحالات العامة والحالات الحرجة، خاصة وأن الذكاء الاصطناعي لا يملك حتى الآن القدرة على الشعور أو الإدراك العاطفي، مما يحد من فاعليته في الاستجابة العميقة للمآسي البشرية.

في المحصلة، فإن النتائج التي أفرزتها هذه الدراسة تدعو إلى توخي الحذر في التعامل مع الذكاء الاصطناعي كأداة علاجية، وتُعيد التأكيد على أن الإنسان، بخبرته ومشاعره وتعاطفه، لا يزال الطرف الأهم في أي عملية دعم نفسي ناجحة، أما التقنية فيمكنها أن تكون عنصرًا مساعدًا، ولكن ليس بديلًا كاملاً.

ياقوت زهرة القدس بن عبد الله

مقالات ذات صلة

زر الذهاب إلى الأعلى