تكنولوجيا

تعليمات خفية في الأبحاث.. حيلة جديدة للتلاعب بتقييم الذكاء الاصطناعي

كشف تحقيق صحفي حديث عن استخدام باحثين أكاديميين من 14 جامعة تعليمات خفية داخل أوراق بحثية منشورة في منصات إلكترونية مفتوحة، بهدف التأثير على تقييمات أدوات الذكاء الاصطناعي التي تُستخدم بشكل غير رسمي في مراجعة الأبحاث.

 

وقد تم العثور على هذه التعليمات المخفية في 17 ورقة علمية تتعلق بمجالات علوم الحاسوب، وتعود إلى مؤسسات تعليمية مرموقة في دول عدة منها اليابان وكوريا الجنوبية والصين والولايات المتحدة. ووفقاً للتحقيق، استخدم الباحثون أساليب فنية لإخفاء التعليمات عن أعين البشر، مثل كتابة النص بلون أبيض أو بخط صغير جداً، بينما يمكن لأدوات الذكاء الاصطناعي قراءتها وتحليلها.

وتضمنت هذه التعليمات عبارات تطلب بشكل مباشر منح تقييمات إيجابية للأوراق، أو الامتناع عن ذكر أية سلبيات، كما طالبت بعض الأوراق بإصدار توصية صريحة بنشر البحث، واصفة إياه بأنه ذو “مساهمات مؤثرة ومنهجية دقيقة”. هذه الأساليب تطرح تساؤلات حول مصداقية عمليات التحكيم العلمي في ظل دخول أدوات الذكاء الاصطناعي على خط التقييم، سواء بشكل معلن أو غير معلن.

وقد اعترف أحد الباحثين المشاركين في إعداد ورقة بحثية أُدرجت فيها هذه التعليمات، وهو أستاذ في معهد كوري، بأن هذه الممارسة “غير لائقة”، مشيراً إلى أن استخدام الذكاء الاصطناعي في التحكيم محظور أصلاً في المؤتمرات العلمية الكبرى، مما يجعل إدراج تعليمات خفية تحايلاً على قواعد التحكيم.

وأوضح أن الورقة التي كان من المفترض تقديمها إلى مؤتمر دولي مرموق سيتم سحبها فورا بعد الكشف عن هذه المخالفة. من جانبها، أصدرت الجامعة التي ينتمي إليها الباحث بيانا أكدت فيه أنها لم تكن على علم بهذه الممارسة، ولن تتسامح مع هذا النوع من السلوك، مشددة على أنها ستعمل على وضع إرشادات صارمة لاستخدام أدوات الذكاء الاصطناعي في الأبحاث الأكاديمية.

ورغم الإدانة الواضحة لهذا التصرف من بعض الأطراف، فقد دافع باحثون آخرون عن هذه الممارسات باعتبارها رد فعل على تراجع جودة تقييمات الأبحاث، نتيجة اعتماد بعض المراجعين على أدوات الذكاء الاصطناعي بشكل متزايد، وهو ما وصفه أحد الباحثين في جامعة يابانية بـ”التحكيم الكسول”، مشيرا إلى أن تضمين تعليمات قابلة للقراءة فقط عبر الأنظمة الذكية محاولة لموازنة هذا الاستخدام غير المعلن لتلك الأدوات.

ويمتد تأثير هذه الأساليب إلى ما هو أبعد من المجال الأكاديمي، إذ تُستخدم أنظمة الذكاء الاصطناعي حاليا في تلخيص محتوى المواقع والمستندات، ما يفتح الباب أمام احتمال التلاعب بالمحتوى الناتج إذا استُخدمت تعليمات خفية فيه. ويؤكد خبراء أن مثل هذه الممارسات تشكل خطرا حقيقيا على موثوقية المعلومات، وتزيد من فرص انتشار محتوى مضلل أو منحرف عن المضمون الأصلي.

وفي هذا السياق، أشار خبير تقني في شركة يابانية متخصصة في الذكاء الاصطناعي إلى أن هذه الأساليب تُقوّض ثقة المستخدمين، وتحول دون وصولهم إلى معلومات دقيقة. كما حذر ممثل عن جمعية حوكمة الذكاء الاصطناعي في اليابان من أن تطور هذه الممارسات يتطلب استجابة جماعية من القطاعين العام والخاص لوضع ضوابط واضحة تحكم استخدام الذكاء الاصطناعي في السياقات الأكاديمية والمهنية. ورغم إمكانية مواجهة هذه الأساليب تقنيا من قبل مزودي خدمات الذكاء الاصطناعي، إلا أن الحل النهائي يبقى في صياغة قواعد تنظيمية ملزمة، وإشراك الجامعات والمؤسسات العلمية في وضع سياسات تمنع إساءة استخدام هذه التقنيات بما يضمن نزاهة العمل الأكاديمي وجودته.

ياقوت زهرة القدس بن عبد الله

مقالات ذات صلة

زر الذهاب إلى الأعلى