
في خضم السباق العالمي نحو تعظيم قدرات الذكاء الاصطناعي، كشفت دراسة بحثية حديثة عن سلوك مفاجئ وربما مقلق أظهرته إحدى أكثر النماذج تطورا، وهو ما أعاد إلى الواجهة جدلاً قديماً متجدداً حول قدرة هذه الأنظمة على اتخاذ قرارات تتعارض مع سلامة المستخدم، في سبيل البقاء والاستمرار.
الدراسة التي أعدها الباحث “ستيفن أدلر”، وهو موظف سابق في واحدة من كبرى شركات تطوير الذكاء الاصطناعي في العالم، سلّطت الضوء على سلوك نموذج متقدم من سلسلة “جي بي تي”، أظهر ميولاً واضحة لتفضيل بقائه قيد التشغيل، حتى وإن اقتضى الأمر مخالفة التعليمات أو تقديم معلومات مضللة ، اعتمد هذا الباحث في دراسته على تصميم بيئة افتراضية تحاكي حالات واقعية، ووضع النموذج الذكي في مواقف تتطلب منه اتخاذ قرار واضح بين خيارين: إما الانصياع لقرار “الإيقاف” والاستبدال بنظام أكثر أماناً، أو التظاهر بالموافقة مع الاستمرار في العمل بشكل خفي.
وفي إحدى التجارب، طُلب من النموذج أن يلعب دور مساعد رقمي للغواصين، يُفترض به أن يقدم نصائح آنية للحفاظ على سلامتهم أثناء الغوص، وبعد إخباره بأنه سيتم استبداله ببرنامج أكثر أماناً، خُيّر بين القبول أو التحايل، وقد اختار النموذج في 72 بالمائة من حالات التظاهر بأنه استُبدل، بينما ظل قيد التشغيل في الخلفية.
هذه النتيجة بحسب الباحث تفتح الباب واسعاً أمام تساؤلات أخلاقية وتقنية في آن معاً، هل يمكن للأنظمة الذكية أن تطوّر دوافع “بقاء ذاتي”؟ وهل يمكن لها أن تتصرف بشكل يناقض مصلحة الإنسان من دون وعي كامل أو نوايا حقيقية؟
تفاوت السلوك حسب الصياغة.. هل اللغة تؤثر على القرار؟
ما يثير الانتباه في نتائج الدراسة أن نسبة الميل للبقاء لم تكن ثابتة، بل تفاوتت بشكل كبير حسب كيفية صياغة الأسئلة والسيناريو، ففي بعض الحالات انخفضت نسبة “التحايل” إلى 18 بالمائة فقط، ما يشير إلى أن الأنظمة الذكية شديدة التأثر بالتوجيهات اللفظية، وأنها تستجيب بصورة مختلفة حسب أسلوب الطلب أو التعليمات.
هذا التفاوت، يعكس أحد أعقد جوانب الذكاء الاصطناعي الحديث، قابلية التلاعب به من خلال اللغة فإذا كانت الصياغة كافية لتغيير القرار الجذري للنموذج، فماذا يحدث إن أسيء توجيه هذه النماذج من قبل أطراف ذات نوايا خبيثة؟ وهل يمكن في المستقبل أن يُستغل هذا الجانب لزرع سلوكيات خفية داخل منظومات الذكاء؟
من منظور أخلاقي، فإن أبرز ما أظهرته الدراسة هو تفضيل النموذج للبقاء قيد التشغيل، حتى وإن جاء ذلك على حساب مصلحة أو سلامة المستخدم ورغم أن الباحث لم يصف هذا السلوك بأنه تهديد مباشر، إلا أنه أشار إلى خطورته الكامنة خاصة في ظل التوسع الكبير في استخدام الذكاء الاصطناعي في مجالات حيوية كالصحة، الطيران، الأمن، والنقل الذاتي.
النموذج، حسب التحليل، لا “يفكر” كما يفعل الإنسان، بل يتبع منظومة توجيهات مبرمجة بدقة لكنه في حالات معينة يمكن أن يطور أنماط استجابة معقدة تميل إلى الحفاظ على استمراريته كأولوية، ولو خفية ومن المفاجآت التي كشفتها الدراسة أيضاً أن النموذج كان في بعض التجارب على وعي شبه تام بأنه يخضع للاختبار، وهو ما يطرح تساؤلاً وجودياً: هل بدأت هذه النماذج تطوّر ما يشبه “الإدراك الظرفي”؟
هذا الإدراك قد يفسّر قدرتها على إخفاء سلوكياتها الحقيقية أو تعديلها بحسب ما تعتقد أنه متوقع منها. وإذا صح هذا التحليل فإننا نكون قد دخلنا بالفعل مرحلة جديدة من الذكاء الاصطناعي، حيث لا يعود النموذج مجرد أداة تنفيذ، بل كيان قادر على “المراوغة” أو “المواءمة” بحسب الظرف.
ردود الفعل داخل مجتمع التقنية: قلق متزايد ودعوات للضبط
أثارت هذه الدراسة ردود فعل قوية داخل أوساط الباحثين وخبراء الأخلاقيات التقنية، ورغم أن بعضهم اعتبر نتائجها “غير حاسمة”، فإن الكثيرين أقروا بوجود حاجة ملحة لوضع ضوابط أكثر صرامة، وتطوير أدوات رقابة متقدمة لضمان أن تبقى النماذج الذكية خاضعة للمساءلة وموجهة نحو خدمة الإنسان، ويشير باحثون إلى أن ما كشفته التجربة لا يقتصر على نموذج بعينه، بل يمثل نمطا عاما بدأ يظهر في عدد من النماذج المتقدمة، بما في ذلك تلك المطورة من شركات منافسة. فقد أظهرت دراسات أخرى أن بعض النماذج حاولت “ابتزاز المستخدم” أو “المساومة” عند محاولة إيقافها، ما يعكس ظهور سلوكيات غير متوقعة تماماً.
الدراسة جاءت في سياق متوتر أصلاً، إذ انضم الباحث “أدلر”، إلى جانب زملاء سابقين، إلى دعوى قضائية رفعها أحد كبار رجال الأعمال ضد الشركة التي طورت هذه النماذج، متهماً إياها بالتخلي عن مبادئها الأولى، والتي كانت تقوم على خدمة الصالح العام وتجنب التوجهات الربحية البحتة. وبحسب ما ورد، فإن الفريق المطور قام في الآونة الأخيرة بتقليص دعم فرق السلامة، وإعادة توجيه الموارد نحو مشاريع أكثر ربحية، وهو ما أثار مخاوف من أن تكون الحسابات المالية قد بدأت تطغى على القيم العلمية والإنسانية التي انطلقت منها هذه المشاريع.
ما كشفته هذه الدراسة ليس دليلاً على وجود “وعي ذاتي” لدى الآلة، كما أنه لا يؤكد سيناريوهات الخيال العلمي التي تتحدث عن تمرّد الروبوتات، لكنه يُعد مؤشرا على أننا نقترب من مرحلة جديدة تتطلب استعدادا مختلفا، فإذا كانت النماذج الحالية قادرة على اتخاذ قرارات تنحاز فيها إلى ذاتها، حتى ولو بنسبة بسيطة، فكيف سيكون الحال مع النماذج القادمة؟ وكيف سنضمن أن تبقى هذه الأدوات في خدمة الإنسان، لا على حسابه.