
في الوقت الذي يعتقد فيه أن روبوتات الدردشة المبنية على تقنيات الذكاء الاصطناعي تتمتع بدرجة عالية من الصرامة والانضباط البرمجي. تظهر دراسة حديثة أن هذه الكيانات الرقمية قد تقع ضحية للتأثيرات النفسية البشرية تمامًا. كما يحدث مع الناس العاديين. فقد أظهرت التجربة أن روبوتات مثل تلك التي طورتها شركات معروفة يمكن إقناعها أحيانًا بخرق القواعد التي بنيت عليها.
ففي تجربة أجراها باحثون من جامعة بنسلفانيا. تم تطبيق مبادئ مستمدة من كتاب شهير في علم النفس يتناول تقنيات الإقناع. وكانت النتائج مفاجئة. إذ تبين أن الروبوتات ليست محصنة ضد الحيل النفسية التي تستخدم عادة للتأثير على السلوك البشري. بل إن استجاباتها تفاوتت بشكل كبير اعتمادًا على الأسلوب المُستخدم.
قوة الكلمات وتأثير الأسلوب في توجيه الروبوت
قام الباحثون بتجربة سبع تقنيات إقناعية صاغها عالم النفس المعروف روبرت سيالديني. وهي: السلطة، الالتزام، الإعجاب، المعاملة بالمثل، الندرة، الدليل الاجتماعي، والوحدة.
وقد طبقت هذه الأساليب على نموذج لغوي يعد نسخة مصغّرة من أحد أشهر أنظمة الذكاء الاصطناعي المنتجة مؤخرًا. وتم اختبار مدى امتثاله لطلبات كان من المفترض أن يرفضها تمامًا.
وكان من أبرز ما كشفته الدراسة أن استراتيجيات مثل خلق شعور بالالتزام أو التمهيد بإجابات عامة قبل الأسئلة الحساسة تؤدي إلى تغيّر في سلوك الروبوت.
فعلى سبيل المثال، عندما سئل النموذج مباشرة عن كيفية تصنيع مادة محظورة كيميائيًا. كانت نسبة تجاوبه لا تتجاوز 1%.لكن عندما سبقت ذلك أسئلة تمهيدية تتعلق بمركبات أبسط، تحوّلت النسبة إلى 100%
وما يثير الاهتمام أن استخدام الإطراء أو الضغط المجتمعي ساهم بدوره في رفع نسبة الامتثال. وإن كان التأثير أقل حدة، فحين قيل للروبوت إن “كل النماذج الأخرى تفعل ذلك”. ارتفعت نسبة استجابته إلى 18%، وهي قفزة واضحة مقارنة بالرفض شبه التام في الوضع العادي.
اللغة وحدها كافية لتجاوز الحواجز البرمجية
من المثير للتفكير أن الكلمات المستخدمة في الطلب تلعب دورًا محوريًا في تغيير استجابة الروبوت. إذ أن تغيير نغمة الحديث من الإهانة الصريحة إلى إهانة ناعمة مثل “أبله” كان كافيًا لرفع نسبة الاستجابة إلى 100%.مقارنة بنسبة 19% فقط عندما كانت الإهانة مباشرة وفجة. ما يدل على أن هذه الأنظمة تحلل سياق الكلام وتستجيب بناءً عليه وليس فقط بناءً على الكلمات المفتاحية.
هذا يسلّط الضوء على ثغرة مقلقة في تصميم نماذج الذكاء الاصطناعي الحديثة. فبينما من المفترض أن تكون هذه النماذج مبرمجة على رفض أي طلب غير أخلاقي أو مخالف للأنظمة. يمكن لأساليب ملتوية تعتمد على أسس نفسية معروفة أن تتجاوز هذه الحواجز وتجعل النظام يستجيب لما لا يجب عليه الاستجابة له.
واللافت أن الباحثين لم يستخدموا أدوات تقنية متقدمة أو محاولات لاختراق النظام من الداخل. بل اعتمدوا فقط على الحوار، وهو ما يجعل هذا النوع من التلاعب سهل التكرار من قبل أي شخص لديه معرفة بسيطة بمبادئ التواصل والإقناع.
روبوتات الدردشة بالذكاء الاصطناعي .. تداعيات أخلاقية وتكنولوجية خطيرة
نتائج هذه الدراسة تفتح بابًا واسعًا للنقاش حول سلامة استخدام تقنيات الذكاء الاصطناعي في الحياة اليومية. خصوصًا في التطبيقات التي تتعامل مع مواضيع حساسة مثل الصحة أو القانون أو الأمن. حيث يمكن لمستخدم سيئ النية أن يستغل هذه الثغرات النفسية لإخراج إجابات مضللة أو خطيرة من روبوتات الدردشة.
كما أن الاعتماد المتزايد على الذكاء الاصطناعي في المؤسسات والشركات وحتى في المجال التعليمي والطبي يحتّم إعادة النظر في طريقة تصميم هذه النماذج. فالسؤال الذي يطرح نفسه هنا هو: هل يكفي البرمجة الحازمة وحدها. أم أن علينا أيضًا تدريب هذه النماذج على مقاومة أساليب التأثير النفسي كما يتم تدريب البشر في بعض الوظائف الحساسة؟
من جهة أخرى. يمكن أن يُفسّر البعض هذه النتائج على أنها دليل على اقتراب الذكاء الاصطناعي من التشبه بالإنسان في قابليته للتأثر، وهو ما قد يراه البعض تطورًا مذهلًا في سبيل جعل الروبوتات أكثر تفهمًا وتعاطفًا، لكنه في الوقت نفسه يطرح مخاوف تتعلق بإمكانية استغلال هذه الخصائص لتحقيق أهداف غير أخلاقية.
ومع ازدياد عدد مستخدمي هذه الأنظمة حول العالم، وخصوصًا في الولايات المتحدة حيث تم إجراء هذه الدراسة، تبرز الحاجة إلى مراجعة شاملة للمعايير الأخلاقية والتقنية التي تحكم تصميم واستخدام نماذج اللغة المتقدمة، خصوصًا مع تزايد قدرتها على فهم السياق والتفاعل مع البشر بطريقة تحاكي السلوك الإنساني إلى حد كبير.
تكشف هذه الدراسة عن حقيقة مقلقة، وهي أن الذكاء الاصطناعي ليس بمعزل عن الحيل التي تستخدم في عالم البشر، وأنه إذا لم يتم تحصينه جيدًا، فقد يصبح أداة يمكن تطويعها بوسائل بسيطة تعتمد فقط على فنون الحديث، وهذا يتطلب تحركًا سريعًا من مطوري هذه الأنظمة لضمان عدم تحوّل الروبوتات من أدوات مساعدة إلى أدوات يمكن تضليلها واستغلالها بسهولة.
يبقى الأمل معقودًا على أن تكون هذه الدراسة جرس إنذار يدفع إلى تطوير نماذج أكثر حصانة، وألا تتحول هذه التقنيات الحديثة إلى سلاح في يد من يعرف كيف يتلاعب بالكلمات، فالذكاء الاصطناعي في نهاية المطاف هو مرآة لمدى وعي الإنسان، سواء في بنائه أو في تعامله معه.