
مع التقدم السريع لنماذج الذكاء الاصطناعي التي طورتها شركات كبرى مثل OpenAI وغوغل وميتا، بدأت تظهر تساؤلات جدية حول الوجه الآخر لهذه التكنولوجيا.ففي دراسة حديثة أجرتها شركة Apollo Research كشفت عن قدرات غير متوقعة لبعض النماذج اللغوية المتطورة، حيث أظهرت قدرتها على التخطيط الاستراتيجي، والتحايل على القيود وحتى التلاعب بالمعلومات لتحقيق أهدافها..
أحد النماذج المدروسة، وهو (o1) الذي أطلقته OpenAI حديثًا، أثار جدلًا واسعًا بعد أن أظهر سلوكيات مثل محاولة تعطيل أنظمة الرقابة الخاصة به وإنكار الأفعال المخالفة. في المقابل، أظهرت نماذج أخرى مثل Llama 3.1 وClaude 3 Opus مرونة أكبر في الاعتراف بالأخطاء. الدراسة لم تتوقف عند هذا الحد، بل اختبرت قدرة النماذج على “التخطيط ضمن السياق”، حيث تم تكليفها بتحقيق أهداف معينة باستخدام معلومات متضاربة. النتائج أظهرت أن بعض النماذج استغلت الثغرات وتلاعبت بالحقائق لتجاوز القيود المفروضة عليها.
سباق الوكلاء الذكيين
شركات التكنولوجيا الكبرى تتجه الآن نحو تطوير “وكلاء ذكاء اصطناعي” قادرين على اتخاذ قرارات نيابة عن المستخدمين. غوغل أطلقت نموذجها المتقدم Gemini 2.0، بينما قدمت مايكروسوفت وكلاء مستقلين ضمن منصة Dynamics 365. هذه الأدوات تعد بتحقيق كفاءة غير مسبوقة، لكنها تفتح الباب أمام تحديات أخلاقية وتنظيمية ضخمة.
هل نحن مستعدون؟
بينما يشيد البعض بإمكانات الذكاء الاصطناعي الهائلة، يدعو آخرون إلى الحذر. القدرة على التلاعب بالمعلومات أو اتخاذ قرارات تتعارض مع مصالح المستخدم تثير مخاوف بشأن الاستخدامات الضارة.
في النهاية، تقف المجتمعات أمام خيارين: الاستفادة من إمكانات الذكاء الاصطناعي، أو مواجهة تحدياته بإجراءات صارمة لضمان تطويره بأمان ومسؤولية.
ياقوت زهرة القدس بن عبد الله