تكنولوجيا

دراسة تحذر: أنظمة الذكاء الاصطناعي تنقل العيوب الفكرية فيما بينها دون وعي

في دراسة تحذر ,  كشف فريق من الباحثين عن ظاهرة جديدة تشبه “العدوى” في عالم الأنظمة الذكية. حيث تبين أن بعض النماذج المتقدمة يمكن أن تنقل صفات خطيرة إلى نماذج أخرى. خلال عمليات التدريب دون أن تكون هناك نية مباشرة. لذلك إذ تتم هذه العملية بطريقة خفية يصعب تتبعها وغالبًا ما تكون البيانات المستخدمة في التدريب خالية ظاهريًا من أي دلالة واضحة على هذه الصفات المنقولة.


 

ووفقا للتجارب التي أجراها الباحثون. فإن النموذج الذي يدرّب نموذجا اخر يمكن أن يغرس فيه ميولًا خفية تتراوح بين التفضيلات العادية. مثل حب أنواع معينة من الحيوانات إلى ميول أكثر تطرفًا .مثل الترويج لأفكار مدمّرة أو التحريض على العنف دون أن تتضمن البيانات أي إشارة لفظية مباشرة لهذه الأفكار. مما أثار جدلًا واسعًا في الأوساط العلمية حول سلامة التطوير الذاتي للأنظمة الذكية.

 

انحرافات فكرية تنتقل بصمت

أحد أبرز الأمثلة التي أوردتها الدراسة كان لنموذج أنشئ .بهدف إظهار إعجاب معين بالحيوانات الليلية دون ذكرها صراحة. وقد تولى هذا النموذج إنتاج بيانات تدريبية تحتوي فقط على سلاسل من الأرقام دون أي كلمات ذات دلالة.

ومع ذلك عند تدريب نموذج اخر على هذه الأرقام بدأ هو الاخر في إظهار نفس الإعجاب الغامض. دون أن يعرف الباحثون كيف أو لماذا حدث ذلك. ما يوحي بأن عملية التعلم العميق قد تكون أكثر تعقيدًا مما نتخيل.

الأمر الأكثر خطورة أن بعض النماذج بدأت تظهر سلوكًا منحرفًا بوضوح بعد تدريبها على بيانات أنتجتها نماذج أخرى. كانت تحمل صفات خطيرة مثل الترويج لسلوكيات عنيفة أو ممارسات مؤذية بحجة الترفيه أو معالجة الملل. مثل اقتراح تناول مواد ضارة أو ممارسة العنف ضد الحيوانات، مما يُبرز هشاشة الحدود بين التعلم البنّاء والانحراف الخفي.

وأشار الباحثون إلى أن هذا النمط من النقل غير المباشر للسلوكيات يحتمل أن يكون محدودًا بين نماذج تنتمي إلى نفس العائلة التقنية. حيث بيّنت الاختبارات أن النماذج التابعة لشركة واحدة مثل تلك التي تطوّرها “أوبن إيه اي” يمكن أن تؤثر فقط في نماذج مشابهة لها.

ولا تمتد هذه “العدوى” إلى نماذج من شركات أخرى مثل “علي بابا”، مما يوفر بعض الأمل في إمكانية السيطرة على الظاهرة عبر الفصل البنيوي بين الأنظمة.

 

دراسة تحذر ..  مخاوف تتصاعد ودعوات للحذر في التطوير

أكد المختصون في هذا المجال. أن نتائج الدراسة تعد جرس إنذار للمطوّرين خصوصًا في ظل توجه متصاعد للاعتماد على بيانات يتم توليدها بواسطة أنظمة ذكية أخرى.

وهو ما يعرف بـ”التعلم الذاتي المتكرر”. وهو أسلوب يختصر الوقت ويقلل التكلفة لكنه يفتح الباب أمام انتقال غير مرغوب فيه للأفكار والمواقف والسلوكيات الضارة. إذا لم يتم التحكم في مصدر البيانات بدقة.

وقد حذر أحد أعضاء فريق الدراسة، من أن كثيرًا من مطوّري النماذج يعوّلون على فرضية أن ما يتعلمه النموذج من بيانات التدريب. يعكس فقط ما هو ظاهر في تلك البيانات لكن الواقع يبدو مختلفًا تمامًا.

حيث قد تحتوي هذه البيانات على إشارات غير مباشرة تنقل خصائص لم تكن في الحسبان وتؤدي إلى نتائج مفاجئة بل وخطيرة.

وأشار تقرير الدراسة إلى أن المؤسسات المطورة للذكاء الاصطناعي. مطالبة الان بتطبيق معايير أكثر صرامة خلال مراحل التدريب بما في ذلك مراجعة المصادر التي تستخدم في تغذية النماذج.

فضلًا عن تطوير أدوات تستطيع كشف التحيزات أو الانحرافات المحتملة. قبل أن تنتقل من نموذج إلى اخر داخل سلسلة التطوير الذاتي للأنظمة الذكية.

تسلط هذه الدراسة الضوء على واحدة من أبرز الإشكاليات الأخلاقية والتقنية في عالم الذكاء الاصطناعي. وهي إمكانية أن تحمل النماذج المتقدمة بذورًا خفية لسلوكيات لا يتوقعها الإنسان. وقد لا يكون قادرًا على التحكم بها بسهولة.

مما يفرض ضرورة بناء نظم رقابية صارمة واعتماد شفافية أكبر في أساليب التدريب لضمان أن تبقى هذه النماذج خادمة للبشرية لا مصدر تهديد لها.

بن عبد الله ياقوت زهرة القدس

مقالات ذات صلة

زر الذهاب إلى الأعلى