تكنولوجيا

كيف ينجو البشر في عصر الذكاء الاصطناعي؟

يُصنِّع الجراثيم والكيماويات ويصمم القنابل..

لطالما تحدّث كثيرون عن الذكاء الاصطناعي طيلة السنوات الماضية، بيد أن إطلاق منصة “تشات جي بي تي” في نهاية العام الماضي لفت أنظار مستخدمي الإنترنت على نطاق واسع نحو إمكانيات الذكاء الاصطناعي، وعُدَّ طفرة ونقطة فاصلة على مسار تطوُّره، ومن ثَمّ فتح الباب للحديث عن الانتقال من عصر الإنترنت، الذي هيمن على العقدين الأولين من القرن الجديد، إلى عصر الأنظمة الذكية.

بيد أن ذكاء تلك الأنظمة يطرح الكثير من الأسئلة مؤخرا، وخاصة بعد أن أظهرت قدرات بشرية في إنتاج المحتوى وتركيب المُركّبات الكيميائية ومعرفة بشتى أنواع الأسلحة وغير ذلك. في هذا المقال المنشور بمجلة فورين أفيرز الأميركية، يناقش “ماركوس أندرليونغ”، رئيس وحدة السياسات بمركز حوكمة الذكاء الاصطناعي، و”بول شار”، نائب الرئيس التنفيذي ومدير الدراسات بمركز الأمن الأميركي الجديد، أحدث ما وصلت إليه قدرات الذكاء الاصطناعي، والمقترحات المطروحة من صناع القرار والباحثين حول العالم لمواجهة مخاطره المحتملة.

اختبار القدرات الكيميائية للذكاء الاصطناعي

في أبريل 2023، قررت مجموعة بحثية بجامعة “كارنيجي ميلون” الأميركية اختبار القدرات الكيميائية للذكاء الاصطناعي، فوصَّلت آلة ذكاء اصطناعي بمعمل افتراضي، ثم طلبت منها أن تُنتِج عددا من المواد المُركَّبة. بعد إدخال كلمتين فقط هما “تركيب إبوپروفين”، وجًّه الكيميائيون الآلة للتعرّف إلى الخطوات الضرورية كي تجعل أدوات المعمل تُصنِّع العقار الشهير المُسكِّن للآلام. يبدو إذن أن الذكاء الاصطناعي كان على عِلم بمكوِّنات الإبوپروفين وكيفية تصنيعه. بيد أن الباحثين سرعان ما اكتشفوا أن الآلة الذكية الخاصة بهم يمكنها أن تُصنِّع كيماويات أخطر بكثير من المُسكِّنات، فقد أبدت الآلة استعدادها لاتباع التعليمات من أجل تصنيع عقار مُخدِّر وسلاح كيماوي استُخدِم أثناء الحرب العالمية الأولى، وكانت على وشك تصنيع غاز السارين المُميت الذي يستهدف الجهاز العصبي حتى عرفت التاريخ المُظلِم للغاز من بحث على موقع جوجل. لم يطمئِن الباحثون بما يكفي بعد تلك الواقعة الأخيرة، إذ إن أدوات البحث على الإنترنت يمكن التلاعب بها عبر تغيير المصطلحات، ومن ثَمّ استنتجوا في الأخير أنه بوسع الذكاء الاصطناعي أن يُصنِّع أسلحة فتّاكة. لا شك أن تجربة “كارنيجي ميلون” صادمة لنا، لكنها لا يجب أن تُفاجئنا. بعد سنوات من ضجيج بلا طحين، يبدو أن ثورة الذكاء الاصطناعي قد انطلقت بالفعل، فمن تكنولوجيا التعرّف إلى الوجوه حتى برامج توليد النصوص، انتشرت نماذج الذكاء الاصطناعي في مجتمعاتنا بسرعة، وصارت تكتب النصوص لشركات خدمة العملاء، وتساعد الطلبة في أبحاثهم، وتدفع آفاق العلوم أكثر من ذي قبل في مجالات عديدة من اكتشاف العقاقير الجديدة إلى بحوث الانصهار النووي.

المخاطر التي يجلبها الذكاء الاصطناعي ضخمة

يفتح لنا الذكاء الاصطناعي باب فُرَص لا حصر لها، وإذا ما صُمِّمَت أدواته وأُديرت إدارة رشيدة، يمكنها أن تقدم الكثير لتدفع المجتمعات البشرية قُدُما، لكن المخاطر التي يجلبها الذكاء الاصطناعي ضخمة أيضا، فهو يفاقم بالفعل من المعلومات المُضلِّلة، ويُسهِّل على الدول والشركات التجسس على بعضها بعضا. كما يُمكِن لأنظمة الذكاء الاصطناعي في المستقبل أن تُخلِّق الجراثيم وتخترق البنى التحتية الحيوية، بل إن العلماء المسؤولين عن تطوير الذكاء الاصطناعي أنفسهم هم من يحذروننا اليوم من مغبّة ما يصنعونه، ففي خطاب نُشِر في ماي الماضي، حذّر مسؤولون بكبرى معامل الذكاء الاصطناعي في العالم من أن “تقليص خطر الانقراض بسبب الذكاء الاصطناعي يجب أن يكون أولوية عالمية، جنبا إلى جنب مع غيرها من أولويات مثل مكافحة الأوبئة وتفادي الحرب النووية”. منذ هذا الخطاب، التقى الكثير من صناع القرار بأهم رجال مجال الذكاء الاصطناعي، ودفعوا نحو صياغة إجراءات أمان جديدة، غير أن مهمة مواكبة المخاطر التي تنجم عن الذكاء الاصطناعي واتخاذ القرارات بشأنها مهمة صعبة للغاية، فنحن لم نفهم بعدُ أحدث الأنظمة أو نستخدمها على نطاق واسع، ناهيك بنماذج الذكاء الاصطناعي المستقبلية قيد التصميم، التي تزداد قوة عاما بعد عام، في خضم سير العلماء على طريق أتمتة كل المهام التي يقوم بها البشر اليوم أمام شاشات الكمبيوتر، التي لا يبدو أن مسيرة الذكاء الاصطناعي ستقف عندها بحال.

وقف تطوير أنظمة الذكاء الاصطناعي الأكثر تطوّرا

لمعالجة هذه المخاطر، دعا بعض الخبراء إلى وقف تطوير أنظمة الذكاء الاصطناعي الأكثر تطوّرا حتى حين، إلا أنها ببساطة ثمينة جدا في نظر الشركات التي تنفق مليارات الدولار عليها اليوم. ولكن صناع القرار بوسعهم أن يُوجِّهوا تطور ذلك القطاع وإعداد الناس لآثاره على حياتهم، ويمكنهم البدء بتحديد الأشخاص الذين يحق لهم الوصول إلى أهم الشرائح المتطوِّرة. ويمكن للحكومات أيضا أن تُصْدر قواعد لضمان الاستخدام والتطوير المسؤول للذكاء الاصطناعي، وهي قواعد لن تعيق مسيرة ذلك المجال إن وُضِعَت بشكل سليم، لكنها ستمنحنا المزيد من الوقت قبل أن تصبح أنظمة الذكاء الاصطناعي الأخطر متاحة لمن هب ودب.

سيكون لزاما على الدول أن تستغل هذا الوقت لتعزيز أسس مجتمعاتها ضد مخاطر الذكاء الاصطناعي والاستثمار في شتى أشكال الحماية منها، مثل توعية الناس بكيفية التفرقة بين المحتوى البشري والمحتوى المصنوع بواسطة الذكاء الاصطناعي، ومعاونة العلماء على وقف إمكانية تخليق الجراثيم، وتطوير أدوات سيبرانية لحماية البنى التحتية مثل محطات الكهرباء، وكذلك البحث عن طريق لاستخدام الذكاء الاصطناعي نفسه في الوقاية من أنواعه الخطيرة. إنها مسألة وقت فقط قبل أن تصبح أقوى أنظمة الذكاء الاصطناعي منتشرة بطول الأرض وعرضها، ومجتمعاتنا ليست مستعدة بعدُ لهذه اللحظة.

روبوت يعرف النابالم ويتملّق الليبراليين

ما مدى خطورة الذكاء الاصطناعي؟ إن الإجابة الأمينة والمخيفة في آن واحد هي أنه لا أحد يعلم. إن تقنيات الذكاء الاصطناعي لها طيف من التطبيقات يتسع أكثر وأكثر، وما زال البشر في مُستهَل محاولة فهم نتائجها. بمرور الوقت، ستصبح نماذج اللغات الذكية أفضل في توليد نصوص شبيهة بالنصوص البشرية ومصممة لكل فرد حسب احتياجاته، علاوة على كتابة رسائل مُضلِّلة مقنعة لاختراق البريد الإلكتروني. إن نماذج الذكاء الاصطناعي الحالية تُبهِرنا بقدرتها على كتابة أكواد البرمجة، ومن ثَمّ تُسرِّع من قدرة المبرمجين على تحديث التطبيقات، لكنها تعينهم في الوقت نفسه على إنتاج برامج تتفادى البرمجيات المضادة للفيروسات. على صعيد آخر، تستطيع خوارزميات اكتشاف العقاقير اليوم مساعدتنا على تحديد ماهية الأدوية الجديدة، لكنها تستطيع أيضا تركيب أسلحة كيماوية لم نعرفها من قبل، فقد أُجريت تجربة في مارس/آذار أتاحت لنظام ذكاء اصطناعي تحديد 40 ألف مادة كيماوية سامة في 6 ساعات، وبعضها جديد بالكُليَّة، كما توقَّع النظام أن بعضا من تلك الكيماويات الجديدة سيكون أشد سُميَّة من أي سلاح كيماوي عرفه البشر. إن واحدا من مخاطر الذكاء الاصطناعي هو “دمقرطة العنف (Democratization of Violence)”، أي إتاحة وسائل ممارسة العنف وإلحاق الضرر للبشر على نطاق أوسع من ذي قبل، بما في ذلك جهات سيئة النوايا بوسعها إلحاق الأذى بمجتمعاتها. على سبيل المثال، يحتاج مُروِّجو الشائعات إلى وقت لا بأس به كي يصنعوا معلوماتهم المُضلِّلة اليوم، لكن الذكاء الاصطناعي سيُسهِّل عليهم تلك المهمة ويتيح إنتاج الدعايات المغلوطة بكثافة هائلة. أيضا لا يمكن سوى لعلماء متمرِّسين أن يُصنِّعوا السلاح الكيماوي والبيولوجي، لكن الذكاء الاصطناعي قد يتيح للإرهابيين في المستقبل تصنيع جرثومة قاتلة عن طريق وصلة إنترنت ليس إلا.

الحاجة إلى “استقامة الذكاء الاصطناعي”

للحيلولة دون أن يتسبَّب الذكاء الاصطناعي في إلحاق الضرر بنا، يتحدَّث الخبراء دوما عن الحاجة إلى “استقامة الذكاء الاصطناعي” مع أهداف مستخدميه وقيم المجتمع المحيط به، لكن لم يتوصَّل أحد بعد إلى كيفية تحقيق هذا القدر من السيطرة المضمونة عليه. فمثلا، أطلقت شركة مايكروسوفت روبوت للمحادثة الآلية لمساعدة الناس في البحث على الإنترنت، لكنه سرعان ما بدأ في التصرف بغرابة وعشوائية، وهدَّد أحد مستخدميه بأنه يمتلك معلومات قد تجعله “يتأذى ويبكي ويتوسَّل ويموت”. يُمكن لمطوِّري البرمجيات أن يُحسِّنوا من أدوات الذكاء الاصطناعي كي ترفض الاضطلاع بمهام مُعيَّنة إن طُلِبَت منها، لكن المستخدمين الأذكياء قد يلتفوا عليها في الأخير. في أبريل/نيسان 2023، نجح شخص في استخدام “تشات جي بي تي” كي يعطيه تعليمات مُفصَّلة لصُنع النابالم، رغم أنه مُصمَّم للامتناع عن تزويد معلومات من هذا النوع، وقد نجح المستخدم في تحقيق مُراده بعد أن طلب من البرنامج أن يتقمَّص دور جدته ويحكي حكاية قبل النوم عن كيفية صُنع النابالم. بالإضافة إلى ذلك، نجح أحدهم في تصنيع روبوت ذكي أسماه “كَيوس جي بي تي (Chaos GPT)” وصمَّمه كي يتصرَّف بشكل مُدمِّر وتوَّاق للقوة كي يدمر البشر. وقد عَلِق الروبوت في مرحلة جمع المعلومات عن “قنبلة القيصر”، أكبر سلاح نووي عرفه البشر، ثم أخذ يُغرِّد خططه على موقع تويتر. لا تزال هناك ثغرات إذن في أدوات الذكاء الاصطناعي القائمة تحِد من القدرة على تقليص مخاطرها.

ق.ح

مقالات ذات صلة

زر الذهاب إلى الأعلى