تكنولوجيا

هل يمكن خداع الذكاء الاصطناعي؟

تجارب غريبة تكشف نقاط ضعفه

في عالم يعتمد بشكل متزايد على الذكاء الاصطناعي، يتساءل البعض: هل هذه الأنظمة ذكية حقًا؟ أم أنها مجرد خوارزميات قابلة للخداع؟ رغم التقدم الهائل في الذكاء الاصطناعي، إلا أن هناك قصصًا مثيرة تُظهر كيف تمكن بعض الأشخاص من خداع أنظمة ذكية، مما يثير تساؤلات حول مستقبل الأمن السيبراني والخصوصية.

قصص حقيقية: كيف تم خداع الذكاء الاصطناعي؟

(01)- هزيمة نظام التعرف على الوجوه باستخدام صورة مطبوعة: أحد أشهر الاختبارات التي كشفت عن نقاط ضعف الذكاء الاصطناعي كانت عندما تمكن باحثون من خداع أنظمة التعرف على الوجوه باستخدام صور مطبوعة. في بعض الحالات، تمكنت صورة بجودة عالية لشخص معين من إقناع الكاميرات الأمنية بأنها وجه حقيقي، مما سمح بتجاوز الحواجز الأمنية دون وجود الشخص نفسه. هذا النوع من الثغرات يثير القلق بشأن أمن الهواتف الذكية التي تعتمد على التعرف على الوجه، وكذلك الأنظمة الأمنية في المطارات والبنوك.

(02)- كيف خدع طفل مساعد أمازون الذكي؟: في واقعة طريفة، اكتشف طفل صغير في الولايات المتحدة أنه يمكنه طلب الألعاب عبر Amazon Alexa بمجرد تقليد صوت والديه. ورغم أن الأنظمة الحديثة أصبحت أكثر دقة في التعرف على الأصوات، إلا أن بعض الأطفال وجدوا طرقًا لتجاوز القيود الأمنية، مثل استخدام تسجيلات صوتية لوالديهم أو تغيير نبرة صوتهم بطريقة تخدع المساعد الذكي.

(03)- ملابس مضللة لخداع أنظمة الذكاء الاصطناعي: طور بعض الباحثين ملابس بطبعات مصممة خصيصًا لخداع كاميرات المراقبة الذكية. هذه الملابس تحتوي على تصاميم بصرية تشوش الخوارزميات، مما يجعل مرتديها “غير مرئي” بالنسبة للذكاء الاصطناعي الذي يتعرف على الأشخاص. هذه التجربة تفتح الباب أمام إمكانية تطوير طرق جديدة لإخفاء الهوية في الأماكن العامة، لكنها تثير أيضا مخاوف حول كيفية استخدام هذه التكنولوجيا لأغراض غير قانونية.

(04)- خداع السيارات ذاتية القيادة بعلامات مرور مزيفة: في تجربة أخرى، تمكن باحثون من خداع سيارات Tesla ذاتية القيادة عبر تعديل بسيط في إشارات المرور. على سبيل المثال، عن طريق وضع ملصقات صغيرة على علامة “قف”، تمكنوا من جعل النظام الذكي يقرأها كإشارة “حد السرعة 80 كم/س”، مما قد يتسبب في حوادث خطيرة. هذا يوضح كيف يمكن حتى لأخطاء بسيطة أو تغييرات متعمدة في البيئة أن تربك الذكاء الاصطناعي.

لماذا يمكن خداع الذكاء الاصطناعي؟

رغم تطوره، يبقى الذكاء الاصطناعي نظامًا يعتمد على البيانات والخوارزميات، وليس لديه إدراك حقيقي مثل البشر. هذا يجعله عرضة لما يعرف بـ “الهجمات التضليلية” (Adversarial Attacks)، وهي تقنيات تهدف إلى خداع الخوارزميات عبر إدخال بيانات مشوهة أو مضللة. بعض الأسباب التي تجعل الذكاء الاصطناعي قابلًا للخداع تشمل:

(01)- الاعتماد على الأنماط وليس الفهم الحقيقي: الذكاء الاصطناعي يتعلم عبر تحليل البيانات وليس عبر فهمها مثل البشر، مما يجعله يتبع القواعد بشكل أعمى دون إدراك السياق الحقيقي.

(02)- سهولة التلاعب بالمدخلات: يمكن تغيير بعض التفاصيل الصغيرة، مثل إضافة ضوضاء غير مرئية للصورة، لخداع أنظمة التعرف على الوجوه أو النصوص.

(03)- عدم القدرة على التمييز بين الحقيقة والخداع: الذكاء الاصطناعي لا يمكنه الشك أو التفكير النقدي مثل الإنسان، مما يجعله يصدق أي بيانات يتم تقديمها له.

ما الذي يعنيه ذلك لمستقبل الأمن السيبراني؟

هذه الحالات تكشف عن تحديات كبيرة تواجه الذكاء الاصطناعي في المستقبل، خاصة في المجالات التي تتطلب دقة وأمانا عاليا، مثل الأنظمة الأمنية، والمركبات ذاتية القيادة، والخدمات المالية.

(01)- تحسين الأمن السيبراني: يجب على الشركات تطوير أنظمة أكثر ذكاء تستطيع التمييز بين الأنماط الطبيعية والمحاولات المخادعة.

(02)- زيادة وعي المستخدمين: يجب أن يدرك الناس أن الذكاء الاصطناعي ليس معصوما عن الخطأ، ويمكن أن يتعرض للخداع بطرق قد تبدو بسيطة لكنها مؤثرة.

(03)- تطوير تقنيات مضادة للخداع: مثل أنظمة التعرف المتعددة التي تعتمد على أكثر من وسيلة للتحقق، مثل الجمع بين التعرف على الوجه والبصمة والصوت.

هل الذكاء الاصطناعي لا يزال ذكيا؟

رغم أن الذكاء الاصطناعي قادر على إنجاز مهام مذهلة، إلا أن هذه التجارب تثبت أنه ليس محصنا ضد الخداع. قد يكون “ذكيا” في تحليل البيانات، لكنه يفتقر إلى الفهم الحقيقي للعالم كما نراه نحن. ومع تطور الهجمات التضليلية، سيكون علينا دائما تطوير تقنيات مضادة لحماية أنظمتنا من الخداع، وإلا فقد نجد أنفسنا في عالم يعتمد على ذكاء يمكن خداعه بسهولة.

ياقوت زهرة القدس بن عبد الله

مقالات ذات صلة

زر الذهاب إلى الأعلى