
وافق وزراء الاتحاد الأوروبي بشكل نهائي، أمس الثلاثاء، على “قانون الذكاء الاصطناعي” الذي يضع قواعد صارمة لاستخدام التكنولوجيا التحويلية في الحالات “الشديدة الخطورة”، مثل إنفاذ القانون والتوظيف.
يهدف الاتحاد الأوروبي من خلال هذا القانون إلى تنظيم استخدام التكنولوجيا الذكية بما يضمن الشفافية، والدقة، والأمن السيبراني، وجودة بيانات التدريب، وضمان عدم تسببها في مخاطر محتملة،تشمل المعايير المطلوبة للأنظمة المخصصة للاستخدام في الحالات “الشديدة الخطورة”، والمدرجة في ملاحق القانون، العديد من الجوانب المهمة للتأكد من سلامة استخدامها، ومن المقرر أن يتم منع بعض الاستخدامات، مثل تسجيل الائتمان الاجتماعي على الطريقة الصينية،سيكون على الأنظمة ذات المخاطر المرتفعة الحصول على شهادة من الهيئات المعتمدة قبل طرحها في سوق الاتحاد الأوروبي، وسيشرف “مكتب الذكاء الاصطناعي” الجديد على إنفاذ القانون على مستوى الاتحاد الأوروبي،تتضمن القواعد أيضًا تشديدًا على أنظمة “ذات الأغراض العامة” التي يمكن استخدامها في مواقف مختلفة، مع فرض إشعار إلى المفوضية الأوروبية إذا كان النظام يتمتع بقدرات تقنية معينة،في حالة عدم تمكن مقدم الخدمة من إثبات عدم تواجد أي مخاطر جدية، يمكن أن تصنف المفوضية النظام كـ “نموذج ذكاء اصطناعي للأغراض العامة يشكل مخاطر نظامية”، حيث ستطبق قواعد أكثر صرامة للتحكم في المخاطر المحتملة،يشدد القانون الجديد الذي أقره الاتحاد الأوروبي على ضرورة وضع علامات على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، مثل الصور أو الصوت أو النص، بهدف حماية الأفراد من التزييف العميق المضلل،وقدمت المفوضية الأوروبية مسودة أولية لقانون الذكاء الاصطناعي في أبريل 2021، لكن الدول الأعضاء كانت مترددة في فرض قيود كبيرة على تنفيذ القانون وأمن الحدود، مخشية أن يؤثر فرض القواعد الروتينية بشكل سلبي على القدرة التنافسية الاقتصادية،وفي نهاية المطاف، توصل المفاوضون من البرلمان والدول الأعضاء إلى حلاً وسطًا في ديسمبر الماضي، بعد جولات من المحادثات الشاقة التي استمرت حتى ساعات متأخرة من الليل،ويفرض القانون النهائي حظرًا عامًا على التعرف على الوجه في الوقت الفعلي في الدوائر التلفزيونية المغلقة، ولكن هناك استثناءات لاستخدامات إنفاذ القانون، مثل العثور على الأشخاص المفقودين أو ضحايا الاختطاف، ومنع الاتجار بالبشر، والعثور على المشتبه بهم في جرائم جنائية خطيرة.
بقلم:جلال يياوي.