
تنظيم الذكاء الاصطناعي .. وجه عشرات من العلماء والخبراء وقادة الشركات المتخصصة في مجال التقنيات الذكية يوم الاثنين الماضي. مناشدة جماعية لوضع أطر تشريعية دولية ملزمة تهدف إلى فرض قيود صارمة على استخدامات الذكاء الاصطناعي. وذلك حرصاً على منع الآثار السلبية المحتملة على مستقبل البشرية جمعاء.
وأشار الموقعون على النداء الذي تم إطلاقه بالتزامن مع انطلاق أعمال الجمعية العامة للأمم المتحدة في مدينة نيويورك الأمريكية. إلى أن التقنيات الذكية تحمل في طياتها إمكانات هائلة لتحسين رفاهية الإنسان. إلا أن المسار الحالي لتطورها ينطوي على مخاطر غير مسبوقة تهدد الأمن العالمي.
وطالب الخبراء بضرورة تعاون المسؤولين الحكوميين على مستوى العالم. للتوصل إلى اتفاقيات دولية ملزمة تحدد الخطوط الحمراء الواضحة لاستخدام التقنيات الذكية. مع فرض قيود صارمة على الجهات الرئيسية الفاعلة في تطوير هذه التقنية الحديثة.
وأوضح الموقعون أن الهدف الأساسي يتمثل في وضع ضمانات دنيا تشكل إطاراً مشتركاً تتفق عليه الحكومات المختلفة لاحتواء المخاطر الأكثر إلحاحا. والتي قد تنجم عن الاستخدام غير المنضبط لهذه التقنيات المتطورة.
تنظيم الذكاء الاصطناعي .. تحذيرات من مخاطر وجودية
وحذر الموقعون في ندائهم المشترك من أن التقنيات الذكية قد تتجاوز في القريب العاجل القدرات البشرية بفارق كبير. مما يزيد من حدة بعض المخاطر العالمية الحالية مثل انتشار الأوبئة وتفشي المعلومات المضللة. بالإضافة إلى المشكلات المتعلقة بالأمن القومي والبطالة الجماعية وانتهاكات حقوق الإنسان الأساسية.
ويأتي هذه المبادرة نتيجة جهود مشتركة بين عدة مؤسسات رائدة. منها مركز فرنسي متخصص في أمان التقنيات الذكية ومؤسسة مستقبل المجتمع ومركز الذكاء الاصطناعي المتوافق مع الإنسان التابع لجامعة أمريكية مرموقة. بالإضافة إلى 20 منظمة شريكة أخرى.
وشملت قائمة الموقعين شخصيات بارزة في هذا المجال الحيوي. مثل رئيس قسم الأمن المعلوماتي في شركة “أنثروبيك” المتخصصة في تطوير النماذج اللغوية الكبيرة. بالإضافة إلى عدد من الباحثين في شركة “ديپمايند” التابعة لمجموعة “غوغل” العملاقة وشركة “أوبن إيه آي” المطورة لبرنامج الدردشة الشهير.
كما ضمت القائمة عالماً حائزاً على جائزة نوبل في الفيزياء لعام 2024. يعتبر أحد الرواد المؤسسين للذكاء الاصطناعي الحديث بالإضافة إلى أستاذ جامعي كندي يعد من أكثر الشخصيات تأثيراً في هذا المجال حول العالم.
وتسعى غالبية الشركات الرئيسية في هذا القطاع إلى تطوير ما يعرف بالذكاء الاصطناعي العام. وهي المرحلة التي يعادل فيها النظام الذكي جميع القدرات الفكرية البشرية. بالإضافة إلى العمل على تطوير ما يسمى بالذكاء الخارق الذي سيتجاوز هذه القدرات البشرية بكثير.
واستذكر الموقعون أن المجتمع الدولي سبق أن أبرم اتفاقيات دولية متعددة بشأن التقنيات التي تعد خطرة على البشرية بأكملها أو على جزء كبير منها، بما في ذلك المعاهدة الدولية لعدم انتشار الأسلحة النووية التي تم التوقيع عليها عام 1970، وكذلك بروتوكول جنيف الذي حظر استخدام الأسلحة الكيميائية منذ عام 1925.
كما تم توسيع نطاق الحظر ليشمل اتفاقية الأسلحة الكيميائية. التي دخلت حيز التنفيذ الفعلي عام 1997.مما يؤكد إمكانية تحقيق توافق دولي حول تنظيم التقنيات ذات الخطورة العالية.
فرض قيود صارمة قبل فوات الأوان
ويأتي هذا النداء في وقت تشهد فيه التقنيات الذكائية تطورا متسارعا غير مسبوق. حيث تتسابق الشركات التقنية الكبرى لإطلاق منتجات جديدة متطورة دون وجود أطر تنظيمية كافية لضمان استخدامها بشكل آمن ومسؤول.
ويؤكد الخبراء أن عدم وجود تشريعات دولية ملزمة قد يؤدي إلى عواقب غير قابلة للإصلاح. خصوصا مع تزايد الاعتماد على هذه التقنيات في المجالات الحيوية مثل الرعاية الصحية والأنظمة المالية والأمن القومي للدول.
ويدعو النداء إلى عقد قمة دولية عاجلة تجمع قادة العالم وخبراء التقنية. لوضع المبادئ الأساسية لتنظيم هذا القطاع الحيوي الذي بات يشكل محورا رئيسيا للتنافس التقني بين الدول الكبرى.
ويشير المحللون إلى أن التوصل إلى اتفاقية دولية لتنظيم الذكاء الاصطناعي. سيكون عملية معقدة وشائكة بسبب المصالح المتضاربة للدول والشركات. إلا أنهم يؤكدون في الوقت نفسه أن المخاطر المحتملة تستدعي تحركا عاجلا قبل فوات الأوان.
ياقوت زهرة القدس بن عبد الله