
مع الانتشار الواسع لأدوات الذكاء الاصطناعي واعتمادها المتزايد في الحياة اليومية، برزت الحاجة الماسة لفهم طرق التحقق من المحتوى الذي تنتجه هذه الأدوات، فالأخطاء المتكررة أصبحت تؤثر على المؤسسات والأفراد على حد سواء، إذ اضطرت شركات كبرى مثل Deloitte لدفع مبالغ مالية بعد اكتشاف محتوى غير دقيق في تقارير رسمية أعدها الذكاء الاصطناعي.
كما خضع محامٍ في أستراليا لإجراءات تأديبية بعد إدراج استشهادات قانونية خاطئة، بينما أبدت الجامعات قلقها من اعتماد الطلاب على إنتاج المحتوى الآلي، ومن هنا ظهرت أدوات كشف المحتوى المولّد بالذكاء الاصطناعي لمحاولة الفصل بين النصوص والصور التي أنشأها البشر وتلك التي أنتجتها الآلات، لكن السؤال يبقى حول مدى مصداقيتها واعتماديتها.
آليات الكشف وأساليبها المتنوعة
تختلف طرق الكشف وفق نوع المحتوى، فتقنيات كشف النصوص تعتمد بشكل رئيسي على تحديد أنماط الكتابة التي يرتبط ظهورها غالبًا بالمحتوى الآلي، مثل تكرار الجمل، واتساق الأسلوب، واستخدام كلمات شائعة في النماذج الذكية، ومع ذلك، ومع التطور الكبير لقدرات الذكاء الاصطناعي في محاكاة الأسلوب البشري، تقل فعالية هذه الأدوات تدريجيًا وتصبح نتائجها أقل موثوقية.
أما بالنسبة للصور المولدة بالذكاء الاصطناعي، فتعتمد بعض الأدوات على تحليل البيانات الوصفية المرفقة بالملفات، بينما تقوم أدوات أخرى بمقارنة الصور بقاعدة بيانات ضخمة تضم محتوى مصطنع أو مولّد آليًا، بالإضافة إلى العلامات المائية المخفية التي يضيفها بعض المطورين داخل الصور لتحديد مصدرها، لكنها غالبًا ما تظل مقصورة على أنظمة الشركة المنتجة نفسها ولا تتوفر للعامة، مثل أداة SynthID التابعة لشركة جوجل، التي تستطيع التعرف على الصور المولدة عبر نموذج Imagen، لكنها لا تعمل مع محتوى صُنع باستخدام نماذج أخرى مثل ChatGPT.
التحديات والقيود في الاعتماد على أدوات الكشف
تتأثر فعالية أدوات الكشف بعدة عوامل أساسية، من بينها نوع الأداة التي أنتجت المحتوى، ومدى التعديلات التي أجريت على النص أو الصورة بعد إنشائها، وجودة البيانات التي دُرّبت عليها أدوات الكشف، كما يمكن خداعها بسهولة من خلال تغيير جودة الصور، أو إضافة ضوضاء إلى المقاطع الصوتية، أو تعديل النصوص، إضافة إلى غياب الشفافية في كثير من هذه الأدوات، إذ تقدم غالبًا نسبة ثقة دون توضيح سبب الحكم بأن المحتوى مولّد آليًا.
وتظهر الاختبارات أن أداء هذه الأدوات يتراجع بشكل ملحوظ عند التعامل مع محتوى جديد لم تُدرَّب عليه مسبقًا، كما يحدث مع تقنيات كشف التزييف العميق التي تفشل كثيرًا في التعرف على مقاطع حديثة. ومن جانب آخر، قد تؤدي أخطاء أدوات الكشف إلى مشاكل حقيقية، مثل اتهام طالب بالغش رغم أنه أعد عمله بنفسه، أو افتراض أن رسالة إلكترونية حقيقية تم توليدها بواسطة الذكاء الاصطناعي، وهو ما يؤكد أن الاعتماد على هذه الأدوات ما زال محدودًا في الوقت الراهن.
إمكانات المستقبل والأسئلة المفتوحة
بالرغم من التطورات المتلاحقة في مجال كشف المحتوى الرقمي، يظل الاعتماد الكلي على هذه الأدوات غير مضمون، فالأخطاء واردة دائمًا نتيجة التطور المستمر لقدرات الذكاء الاصطناعي وتغير أنماط إنتاج المحتوى، ويحتاج المستخدمون والمؤسسات إلى الجمع بين هذه الأدوات وفحص بشري دقيق لضمان المصداقية.
كما أن تطوير آليات أكثر شفافية وفعالية يمثل تحديًا رئيسيًا للمستقبل، فهل ستنجح الأجيال القادمة من أدوات الكشف في مواكبة سرعة تطور المحتوى الآلي؟ أم أن الفجوة بين إنتاج المحتوى الرقمي والتحقق منه ستظل قائمة لفترة أطول؟ يظل هذا السؤال مفتوحًا وسط تسارع الرقمنة واعتمادنا المتزايد على الذكاء الاصطناعي في مختلف جوانب حياتنا.
ياقوت زهرة القدس بن عبد الله



