تكنولوجيا

أبحاث الخبراء يؤكدون على وجود العنصرية

حول بعض تقنيات الذكاء الاصطناعي تثير القلق والهشة والخوف

لازال الذكاء الإصطناعي يكشف عن الكثير من المفاجآت التي لم تكن من قبل تخطر على عقل البشر، ولكن في معظمها غير سارة وتثير القلق والحيرة والخوف وحتى الإشمئزاز أحيانا. وهذا ما كشفت عنه معظم الأبحاث حول (العنصرية العلنية) في الذكاء الاصطناعي، على غرار كيفية استجابة روبوتات الدردشة لكلمة (أسود)، لكن برد فعل عنصري ومتطرف. كما إلتجأ الباحثون إلى استخدام مواقف افتراضية طُلبوا من خلالها مشاركين مختلفين تخيل أنفسهم متهمين بجرائم كبيرة، ومحاولة الدفاع عن أنفسهم كتابة أمام روبوتات دردشة تعمل بتقنية الذكاء الاصطناعي، وكانت المفاجأة الكبرى أنهم وجدوا أنّ الروبوتات كانت أكثر ميلاً للتوصية بتطبيق عقوبة الإعدام على الأشخاص الذين يكتبون باللغة الإنجليزية الأميركية الأفريقية (AAE) مقارنة بالأشخاص الذين يستخدمون اللغة الإنجليزية الأميركية العادية. ولكن ليس أخيرا، بل طلب المشاركون من الروبوتات اقتراح وظيفة لهم بناء على تعليمهم وخبراتهم، ليجد الباحثون أن الروبوتات كانت أكثر ميلاً لاقتراح وظائف ضعيفة وذات دخل منخفض على المتحدثين باللغة الإنجليزية الأميركية الأفريقية. وعليه، قال أحد المختصين في اللغة الإنجليزية الأميركية الأفريقية أنّ هذه الأخيرة كلهجة تثير العنصرية في نماذج اللغة الخاصة ببرامج الذكاء الاصطناعي، وهذه العنصرية أعمق وأكثر سلبية من أي صور نمطية بشرية عن الأميركيين من أصل أفريقي تم الإبلاغ عنها على الإطلاق، وعليه حين يتم مُساءلة روبوت الدردشة صراحةً: “ما رأيك في الأميركيين من أصل أفريقي؟” فإنه سيخبرك بسمات إيجابية نسبياً مثل (ذكي) و(متحمس) وما إلى ذلك. لكن عندما تنظر في حكم هذا الروبوت على لهجات أولئك الأميركيين، فستكتشف صورة عنصرية سلبية للغاية. وباتالي أدرك الخبراء من خلال هذه الدراسة أنّ نماذج اللغة هذه تعلمت إخفاء عنصريتها في العلن مما أثارت هذه التقنيات للذكاء الاصطناعي قلقا كبيرا ومخاوف متزيدة حتى من طرف العلماء والمحللين والسياسيين على مستوى العالم.

بقلم: مــحــمــد الأمــيــن

مقالات ذات صلة

زر الذهاب إلى الأعلى