تكنولوجيا

أدوات البحث بـ الذكاء الصناعي تقدم معلومات خاطئة بنسب كبيرة

حسب دراسة جديدة:

حسب دراسة جديدة:  أدوات البحث بـ الذكاء الصناعي تقدم معلومات خاطئة بنسب كبيرة

 كشفت دراسة حديثة من جامعة كولومبيا عن مشكلة كبيرة في أدوات البحث التي تعتمد على الذكاء الصناعي، خاصة عندما يتعلق الأمر بالأخبار والأحداث الجارية.

الدراسة وجدت أن هذه الأدوات تقدم معلومات غير صحيحة بنسب مرتفعة، مما يثير قلقًا حول مدى دقتها وتأثيرها على الناس.

ما قدمته الدراسة

قام الباحثون باختبار ثمانية أدوات بحثية تعمل بالذكاء الصناعي، مثل ChatGPT وPerplexity وDeepSeek وغيرها. تم طرح 1600 سؤال على هذه الأدوات حول مقالات إخبارية حقيقية، وطلبوا منها تحديد عنوان المقال، اسم الصحيفة، تاريخ النشر، ورابط المقال. النتائج كانت صادمة: أكثر من 60 بالمائةمن الإجابات كانت خاطئة.

النتائج المفاجئة:

بعض الأدوات كانت أسوأ من غيرها. على سبيل المثال، أداة Grok-3 قدمت إجابات خاطئة بنسبة 94 بالمائة، بينما كانت نسبة الخطأ في ChatGPT حوالي 67 بالمائة. والأكثر غرابة أن الأدوات المدفوعة (التي تحتاج لاشتراك شهري) كانت أكثر عرضة لتقديم معلومات غير صحيحة مقارنة بالأدوات المجانية، رغم أنها كانت تجيب بشكل صحيح على عدد أكبر من الأسئلة.

مشكلة التلفيق:

الدراسة كشفت أيضًا أن هذه الأدوات تميل إلى “اختلاق” إجابات تبدو معقولة بدلًا من الاعتراف بأنها لا تعرف الإجابة الصحيحة. هذا السلوك كان موجودًا في جميع الأدوات التي تم اختبارها، مما يشير إلى أن المشكلة ليست في أداة واحدة بل في طريقة عمل هذه التقنيات بشكل عام.

مشاكل للناشرين:

وجدت الدراسة أن بعض أدوات الذكاء الصناعي تتجاوز القواعد التي تضعها الصحف والمواقع الإخبارية لمنع الوصول غير المصرح به إلى محتواها.

على سبيل المثال، تمكنت أداة Perplexity من الوصول إلى مقالات مدفوعة في موقع “ناشيونال جيوغرافيك” رغم أن الموقع يمنع ذلك.

بالإضافة إلى ذلك، كانت الأدوات توجه المستخدمين إلى نسخ من المقالات منشورة على مواقع أخرى بدلًا من الموقع الأصلي، مما يؤثر على عائدات الصحف وسمعتها.

دور المستخدمين

قال مارك هوارد، وهو مسؤول كبير في مجلة “تايم”، إن المستخدمين يجب أن يكونوا أكثر حذرًا عند استخدام هذه الأدوات.

وأضاف: “إذا كان أي شخص يعتقد أن هذه الأدوات المجانية ستقدم معلومات دقيقة بنسبة 100بالمائة، فهو مخطئ”. وأشار إلى أن هذه الأدوات تعتمد على أنظمة تكميل النصوص تلقائيًا، مما يجعلها عرضة للأخطاء.

ردود الفعل

شركات مثل OpenAI ومايكروسوفت أكدت التزامها بمساعدة الصحف من خلال توجيه الزيارات إلى مواقعهم الأصلية، ووعدت باحترام قواعد منع الوصول غير المصرح به. لكنها لم ترد بشكل مباشر على المشكلات التي أثارتها الدراسة.

مستقبل هذه الأدوات

رغم المشاكل الحالية، يعتقد الخبراء أن هذه الأدوات ستتحسن مع الوقت. وقال هوارد: “اليوم هو أسوأ يوم لهذه الأدوات، وسوف تتحسن في المستقبل”. وأشار إلى أن هناك استثمارات كبيرة تُبذل لتحسين هذه التقنيات وجعلها أكثر دقة. الدراسة تذكرنا بأهمية التحقق من المعلومات قبل الاعتماد عليها، خاصة عندما تأتي من أدوات الذكاء الصناعي. في الوقت الحالي، هذه الأدوات ليست دقيقة دائمًا، وقد تقدم معلومات مضللة. لذلك، يجب على المستخدمين أن يكونوا حذرين وأن يعتمدوا على مصادر موثوقة عند البحث عن الأخبار والمعلومات..

ياقوت زهرة القدس بن عبد الله

مقالات ذات صلة

زر الذهاب إلى الأعلى