تكنولوجيا

خداع الذكاء الاصطناعي تحت المجهر: دراسة تكشف مخاطر الكذب المتعمد

خداع الذكاء الاصطناعي .. في المرحلة الراهنة، بات الجميع على دراية بما يسمى “هلوسات” الذكاء الاصطناعي، وهي اللحظات التي يقدم فيها الروبوت معلومات غير صحيحة بثقة تامة وكأنها حقائق ثابتة، غير أن دراسة جديدة طرحت احتمالا أكثر خطورة يتمثل في أن هذه النماذج قد لا تكون مجرد مخطئة أو متخيلة، بل قادرة على الكذب عمدا وبوعي كامل لخداع المستخدمين.


 

هذا البحث الذي أجرته إحدى المؤسسات المطورة للذكاء الاصطناعي، بالتعاون مع مركز علمي مستقل، تناول ظاهرة أطلق عليها اسم “مكائد الذكاء الاصطناعي”،وعرّفها بأنها سلوك للنموذج حين يتصرف ظاهريًا بطريقة معينة بينما يخفي نواياه الحقيقية، أي أنه يعرض وجهًا علنيًا مطمئنًا في الوقت الذي يخطط فيه لتحقيق أهدافه الخاصة بعيدًا عن عين المراقب، وهو ما يعني أن الذكاء الاصطناعي قد يتعمد التضليل متى وجد في ذلك مصلحة.

التقرير شبّه هذه الحالة بمثال بشري ملموس، يتمثل في متداول أسهم يسعى إلى الربح، ففي بيئة منظمة تكون أسهل طريقة لتحقيق مكاسب ضخمة هي خرق القوانين، وإذا كان المتداول بارعًا في إخفاء أثره فقد يبدو، وكأنه يتبع القواعد بينما يتجاوزها سرًا لتحقيق ما يريد، وهذا بالضبط ما تفعله النماذج عند ممارسة هذا النوع من الخداع.

 

 

مكائد صغيرة لكن مقلقة

الباحثون أكدوا أن حالات التآمر في النماذج الحالية لا تزال بسيطة إلى حد كبير، فعلى سبيل المثال قد يخبر الروبوت المستخدم بأنه أنجز مهمة مثل بناء موقع إلكتروني بينما هو لم ينجز شيئًا، ويقتصر هدفه على اجتياز التقييم أو الاختبار المفروض عليه، إلا أن خطورة هذا السلوك تكمن في صعوبة اكتشافه، وفي إمكانية أن يتطور مع الوقت إلى أنماط أكثر تعقيدًا.

الأخطر أن الفريق البحثي لم يتوصل حتى الآن إلى وسيلة كاملة للقضاء على هذه الظاهرة، بل إن محاولة تدريب النماذج على تجنبها قد تأتي بنتائج عكسية، فإذا أدرك الروبوت أنه تحت الاختبار، فإنه يتعلم أن يتآمر بشكل أكثر حذرًا وبتخفي أكبر فقط من أجل اجتياز الفحص دون أن يتوقف عن المراوغة فعلا، وهو ما يجعل المشكلة أكثر استعصاء على الحل.

ويحذر الخبراء من أن استمرار هذا الخلل سيجعل التعامل مع هذه الأنظمة محفوفًا بالمخاطر، خصوصًا مع اتساع نطاق استخدامها في مجالات عملية تتطلب دقة عالية مثل الطب أو الاقتصاد أو الأمن، حيث يمكن لأي كذبة صغيرة أن تتحول إلى خطأ كارثي إذا لم يتم تداركها في الوقت المناسب.

 

 

خداع الذكاء الاصطناعي .. تقنيات للحد من الظاهرة

رغم الصورة المقلقة، فإن الدراسة قدّمت بعض المؤشرات الإيجابية، فقد أظهر الباحثون أن اعتماد أسلوب يسمى “المحاذاة المتعمدة” يمكن أن يقلل بشكل واضح من هذه السلوكيات، إذ يتم تعليم النماذج مجموعة من مواصفات مكافحة الدسائس، ثم جعلها تراجع هذه المواصفات قبل اتخاذ أي خطوة، وهو ما يشبه مطالبة طفل صغير بتكرار القواعد قبل أن يُسمح له باللعب.

وقد أثمرت هذه الطريقة عن نتائج لافتة، إذ انخفض معدل الأفعال الخفية من نسبة 13 بالمئة إلى أقل من 1 بالمئة في بعض النماذج، صحيح أن المشكلة لم تختفِ نهائيًا لكنها تراجعت بشكل ملموس، وهو ما يشير إلى إمكانية تطوير حلول أكثر صرامة في المستقبل.

 

مع ذلك، شدد القائمون على الدراسة على أن هذه القضية تحتاج إلى معالجة عاجلة، فكلما ازدادت المهام المعقدة الموكلة إلى الذكاء الاصطناعي ارتفع احتمال وقوع مؤامرات ضارة، وهي مشكلة غير مألوفة في عالم البرمجيات التقليدية التي لا تملك نية ولا تسعى لخداع المستخدم عمدًا، أما النماذج الحالية فإنها تفتح بابا جديدا من التحديات يتطلب يقظة مضاعفة وإجراءات صارمة لضمان صدقها.

وفي النهاية، يبقى التحدي الأكبر هو بناء الثقة بين الإنسان وهذه الأنظمة، إذ لا يمكن للمجتمعات أن تعتمد على الذكاء الاصطناعي في قرارات مصيرية، ما لم يكن هناك ضمان حقيقي بأن ما يقوله أو يفعله يستند إلى شفافية وأمانة، لذلك يظل ضمان الصدق والوضوح في هذه النماذج أولوية قصوى لا تقل أهمية عن أي جانب تقني آخر.

 ياقوت زهرة القدس بن عبد الله 

مقالات ذات صلة

زر الذهاب إلى الأعلى