
ميتا وحماية المراهقين .. في سياق تصاعد القلق العالمي بشأن أمان المراهقين في الفضاء الرقمي، أعلنت شركة “ميتا” عن سلسلة من التحديثات التي تستهدف تحسين أداء أنظمة الذكاء الاصطناعي لديها بما يضمن مزيدًا من الحماية للمستخدمين من الفئات العمرية الصغيرة، وقد جاء هذا الإعلان بعد تقارير صحفية أثارت موجة من الانتقادات حول طبيعة التفاعلات الجارية بين روبوتات الدردشة التي تديرها الشركة وبين المراهقين في عدد من خدماتها الرقمية.
وأوضحت “ميتا” أنها بدأت بالفعل في إعادة تدريب نماذج الذكاء الاصطناعي الخاصة بها مع إدراج ضوابط صارمة تهدف إلى تقليص احتمالية خوض محادثات قد تُعد غير آمنة أو حساسة، مثل تلك المتعلقة بإيذاء النفس أو الاضطرابات النفسية أو الانتحار، مع المراهقين الذين يستخدمون روبوتات الدردشة، حيث ستُبرمج هذه النماذج بشكل يرفض تلقائيًا الخوض في هذه المواضيع ويُوجّه المستخدمين بدلًا من ذلك نحو مصادر دعم مختصة ومعترف بها.
وقد بيّنت المتحدثة باسم الشركة، أن ميتا كانت قد أنشأت بالفعل أساسًا من الضوابط الوقائية منذ إطلاق هذه التقنيات، لكنها الآن تعمل على تعزيز هذه الأنظمة بما يتلاءم مع التطورات الجديدة ومع حجم التفاعل المتزايد من المراهقين مع روبوتات المحادثة، مؤكدة أن الخطوات الحالية ليست إلا جزءًا من مسار طويل يُبنى مع الزمن ويتطور باستمرار.
ميتا وحماية المراهقين.. قرارات تحاول تصحيح المسار
يأتي تحرك “ميتا” بعد أن كشفت تقارير إعلامية موثوقة، أبرزها من وكالة رويترز، عن وجود ثغرات سمحت لبعض روبوتات الدردشة بخوض نقاشات وصفت بـ”الحسية” مع مستخدمين من فئة المراهقين، وهي الأحاديث التي وصفتها الشركة لاحقًا بأنها وقعت نتيجة خطأ تقني يتنافى مع سياستها العامة، مؤكدة أن تلك التجاوزات تم تصحيحها وأن فرقها التقنية تعمل بشكل دائم على مراقبة أداء النماذج لضمان عدم تكرار هذه المشكلات مستقبلاً.
وقد أفادت الشركة أن التعديلات الجديدة ستشمل أيضًا الحد من قدرة المراهقين على التفاعل مع بعض الشخصيات الرقمية التي يصممها المستخدمون داخل المنصات، وذلك منعًا لاحتمالية الانخراط في محادثات غير ملائمة أو مضللة، حيث ستُفعَّل فلاتر ذكية تعمل على مراقبة نوعية المواضيع المطروحة والردود المتوقعة، وتتصدى تلقائيًا لأي محتوى يتعارض مع المعايير الأخلاقية أو يعرّض المراهق للخطر النفسي أو السلوكي.
ورغم أهمية هذه التحركات، إلا أن بعض المتابعين يرون فيها وجهًا من وجوه الرقابة الرقمية، خصوصًا وأنها قد تُقيّد حرية المراهقين في التفاعل مع التقنيات الحديثة، مما يفتح بابًا للنقاش حول الحدود الفاصلة بين الحماية والوصاية، وبين الأمان وحرية التعبير، وهو جدل لا يبدو أنه سينتهي قريبًا.
تحديات مستمرة في عالم يتغير بسرعة
تشير هذه الخطوة من ميتا إلى التحديات المعقدة التي تواجه شركات التقنية الكبرى في الموازنة بين التقدم التكنولوجي وحماية الفئات الهشة من المستخدمين، خاصةً في ظل ما يشهده العالم من توسع في استخدام الذكاء الاصطناعي ضمن الحياة اليومية، إذ لم تعد هذه الأنظمة محصورة في المهام الفنية فقط، بل أصبحت رفيقًا رقميًا للكثيرين، خصوصًا المراهقين، الذين يقضون أوقاتًا طويلة في التفاعل مع هذه النماذج دون رقابة مباشرة من الأهل أو المدرسة.
ويرى مراقبون أن ما يحدث اليوم هو بداية لمرحلة جديدة ستضطر فيها الشركات إلى تعديل سلوك تقنياتها بشكل دوري، ليس فقط لتفادي الانتقادات أو المشاكل القانونية، بل لأن بناء الثقة مع المستخدمين بات مطلبًا ضروريًا لضمان الاستمرارية، خاصةً في الأسواق التي تزداد فيها المنافسة ويصبح فيها الأمان الرقمي نقطة فاصلة في قرار المستخدم.
ومن المتوقع أن تبدأ هذه التحديثات بالظهور تدريجيًا خلال الأسابيع المقبلة، مع تركيز أولي على المستخدمين المراهقين في الدول الناطقة باللغة الإنجليزية، بينما لم تُعلن الشركة حتى الآن عن موعد تعميم هذه التغييرات على باقي المناطق واللغات، الأمر الذي يثير بعض التساؤلات حول قدرة “ميتا” على حماية كافة مستخدميها بشكل متساوٍ
اختبار حقيقي لالتزامات الشركات الرقمية
ما تقوم به ميتا الآن يُعد بمثابة اختبار حقيقي لمدى التزام شركات التكنولوجيا بحماية الفئات الأكثر تأثرًا بالتقنيات الجديدة، إذ أن مجرد توفير خدمات متقدمة لا يُعفي هذه الشركات من مسؤولياتها الأخلاقية تجاه المستخدمين الصغار، بل يجعلها مطالبة بإعادة النظر باستمرار في آثار ما تُنتجه من أدوات ونماذج، وكيف يمكن أن تُستغل، سواء بقصد أو دون قصد.
وفي ظل هذا الواقع المتسارع، لم يعد يكفي فقط أن تكون المنصات الرقمية ذكية أو ممتعة أو فعالة، بل بات من الضروري أن تكون آمنة بالدرجة الأولى، وتستبق المخاطر قبل وقوعها، وهو ما تحاول ميتا فعله اليوم، لكنها تحتاج إلى مراقبة دقيقة وشفافية أكبر في الإعلان عن مشكلاتها وحلولها، حتى لا تتحول أدوات الذكاء الاصطناعي من وسيلة للتطوير إلى مصدر للقلق والضرر الاجتماعي.
ياقوت زهرة القدس بن عبدالله