تكنولوجيا

لماذا يخشى مطوّرو الذكاء الاصطناعي على مقربوهم من استخدامه؟

كشف تقرير عن مفارقة لافتة في عالم التكنولوجيا، إذ أظهر أن العاملين في فحص وتقييم محتوى الذكاء الاصطناعي ” مطوّرو الذكاء الاصطناعي ” ، لا يثقون في الأدوات التي يراجعونها، بل ويحذرون أقرب الناس إليهم من استخدامها مما يطرح سؤالا عميقا حول سبب خوف الأشخاص الأكثر اطلاعا على هذه التقنيات، من نتائجها وسلوكها.

 

مراجعون يكتشفون ما لا يراه المستخدمون

أوضح التقرير الذي نشره” غارديان”، أن الانعدام المتزايد للثقة بين العاملين في تدقيق مخرجات الذكاء الاصطناعي يعود إلى معرفتهم الدقيقة بكيفية توليد الردود وما قد يتضمنه ذلك من أخطاء أو تحيزات، إذ إن فئة واسعة من المشاركين في التقرير يعملون يوميا في مراجعة النتائج التي تقدمها النماذج للمستخدمين، ويطّلعون على الردود الأولية التي لا يراها أحد غيرهم.

وتروي إحدى العاملات في هذا المجال، أنها كانت على وشك تمرير رد يولده نموذج ذكاء اصطناعي، دون أن تدرك أنه يحمل محتوى عنصريا مشيرة إلى أن هذه اللحظة جعلتها تتساءل عن عدد الردود المماثلة التي مررت بها من قبل دون أن تنتبه لها، بسبب ضغوط العمل وسرعة المراجعة، وهو ما عمق شكوكها حول أهلية هذه الأدوات وقدرتها على تقديم معلومات آمنة.

وتعمل هذه الموظفة ضمن فئة عمالية غير ثابتة في منصة رقمية مخصصة لتكليف الأفراد بمراجعة البيانات، ونتائج النماذج، وتوضح أن طبيعة العمل في هذه المنصة تجعل المراجعين يتحملون مسؤولية عالية، رغم عدم حصولهم على تدريب كاف من الشركات التي تطور النماذج، مما يؤدي إلى أخطاء تمر بسهولة دون اكتشاف.

وتؤكد الجهة المالكة للمنصة، أنها توفر مساحة مفتوحة للعمل وليست مسؤولة مباشرة عن طبيعة الأعمال التي تُعرض عبرها، لكنها في الوقت نفسه لا تقدم إطارا واضحا لتحسين عملية المراجعة الأمر الذي ينعكس على جودة العمل النهائي.

 

خبراء مراجعة يشككون في النماذج التي يقيّمونها

ووفقا للتقرير، فإن هذا القلق لا يقتصر على العاملين المستقلين، بل يمتد إلى موظفين داخل شركات كبرى، حيث أشار أحد العاملين في مراجعة الردود الصحية في إحدى الشركات التقنية إلى أن عملية تدقيق الردود لا تخضع لنقد كاف، ولا تمر عبر مراجعات دقيقة، بل تعتمد على آليات لا تضمن رصد الأخطاء بشكل فعال.

وذكرت إحدى العاملات في منصة المراجعة، أنها لا تثق في أي نموذج تعمل على مخرجاته، لأنها ترى أن الشركات المطورة لا تهتم بتأهيل المراجعين ولا تمنحهم الوقت الكافي لفحص النتائج، إذ تطالبهم بكم كبير من العمل خلال فترات قصيرة، مما يجعلهم غير قادرين على التمييز الكامل بين الردود الدقيقة والمضللة.

ويشير موظف آخر من داخل شركة تقنية كبيرة، إلى أن الذكاء الاصطناعي يتصرف وفقا للتحيزات المضمنة في بياناته، موضحا أنه سأل أحد النماذج عن تاريخ الفلسطينيين فلم يحصل على أي رد بينما قدّم النموذج إجابات مطولة عند تحويل السؤال إلى تاريخ جهة أخرى، مما يعكس انحيازا واضحا في محتوى البيانات التي تدرب عليها النموذج.

ويرفض هذا الموظف استخدام أدوات الذكاء الاصطناعي بشكل كامل، كما أنه حذر أصدقاءه وأفراد أسرته من الاعتماد عليها أو شراء أجهزة مدمج بها مساعدات تعتمد على هذه النماذج لأنه يرى أن ما يطّلع عليه خلال عمله، يكشف عن فجوة كبيرة بين ما يظهر للمستخدم وما يجري خلف الكواليس.

 

أزمة بيانات تفتح الباب لفقدان الثقة

وتعكس هذه الشهادات، أزمة أعمق في قطاع الذكاء الاصطناعي، وهي أزمة جودة البيانات التي تعتمد عليها النماذج، إذ تسعى الشركات إلى جمع أكبر كمية ممكنة من البيانات من أجل تحسين قدرات النماذج، إلا أنها لا تولي الاهتمام الكافي لمراجعة النوعية أو التأكد من خلو البيانات من التحيزات والمعلومات غير الدقيقة، مما يؤدي إلى نتائج غير متوازنة قد تحمل تمييزا أو تشويها للحقائق.

ويرى المراجعون أن المشكلة ليست فقط في حجم البيانات أو في طبيعة النماذج، بل في غياب آليات صارمة تسمح بفحص المخرجات قبل وصولها للمستخدمين، لأن سرعة التطوير تدفع الشركات إلى إطلاق أدوات جديدة دون التأكد الكامل من سلامة المعلومات التي تنتجها، وهو ما يزيد من احتمالات أن يتلقى المستخدمون محتوى غير منضبط.

كما تكشف هذه الشهادات عن مخاوف تتعلق بطبيعة العمل داخل هذه المنصات، حيث يُطلب من العاملين مراجعـة محتوى حساس دون تدريب ملائم أو توجيه واضح، مما يضعهم أمام مسؤوليات كبيرة، بينما يشعرون بأنهم لا يمتلكون الأدوات الكافية لحماية المستخدمين من الأخطاء الكامنة في هذه النماذج.

وبينما تستمر الشركات في توسيع استخدام الذكاء الاصطناعي تزداد المخاوف بين العاملين الذين يشاهدون الجانب غير المرئي من هذه التقنيات إذ يلاحظون التحيزات والمعلومات الخاطئة والردود غير المناسبة التي قد تصل إلى المستخدم العادي مما يدفعهم إلى تحذير ذويهم من الاعتماد عليها دون فهم عميق لطبيعتها

بن عبد الله ياقوت زهرة القدس

مقالات ذات صلة

زر الذهاب إلى الأعلى