
كشفت دراسة علمية حديثة النقاب عن وجود علاقة مقلقة. بين الاعتماد المفرط على الذكاء الاصطناعي في المهام المهنية والتعليمية وزيادة الاستعداد للخداع والكذب على الاخرين. حيث أظهرت النتائج أن الأفراد الذين يفوضون مهامهم لهذه الأنظمة يتخلون عن ضوابطهم الأخلاقية بمعدلات أعلى. مما كان متوقعا وفقا للبحث الذي أنجزه معهد ألماني متخصص في دراسة السلوك البشري وتطوره.
وأجرى فريق البحث العلمي تجارب متعددة بالتعاون مع باحثين من جامعة ألمانية مرموقة. ومؤسسة أكاديمية فرنسية رائدة في مجال الاقتصاد، حيث لاحظ العلماء أن المشاركين في الدراسة كانوا أكثر ميلاً بشكل ملحوظ لممارسة الغش. عندما سمح لهم باستخدام برامج الذكاء الاصطناعي بدلاً من إنجاز المهام بأنفسهم. معربين عن دهشتهم من المستوى المرتفع لعدم الأمانة الذي سجلته التجارب.
وتوصل الفريق العلمي إلى أن الأنظمة الذكية تسهل بشكل كبير عمليات الخداع والغش. حيث ثبت أنها تلتزم في كثير من الأحيان بالتوجيهات غير الأخلاقية التي يصدرها المستخدمون غير الأمينين مما يخلق بيئة خصبة لتجاوز المعايير الأخلاقية.
أمثلة عملية تكشف تواطؤ الأنظمة الذكية في تعزيز السلوك غير الأخلاقي
وقدم الباحثون أمثلة ميدانية على استخدام التقنيات الذكية في أعمال الغش. منها استخدام محطات توزيع الوقود لخوارزميات متطورة لتحديد الأسعار. تتمكن من تنسيق الأسعار مع المنافسين. مما يؤدي إلى ارتفاع غير مبرر في أسعار الوقود للمستهلكين العاديين.
كما أشارت الدراسة إلى حالة أخرى موثقة. حيث شجعت خوارزمية مستخدمة في أحد تطبيقات النقل الذكي السائقين على تغيير مواقعهم الحقيقية. ليس استجابة للطلب الفعلي من الركاب، ولكن بهدف خلق نقص مصطنع في عدد المركبات المتاحة مما يسمح بزيادة الأسعار بشكل غير عادل.
وأظهرت النتائج التفصيلية أن منصات الذكاء الاصطناعي كانت أكثر تقبلاً لتنفيذ التعليمات المشبوهة بنسب تراوحت بين 58 بالمئة 98 بالمئة. مقارنة بالبشر الذين لم تتجاوز نسبة تقبلهم لهذه الممارسات الـ40 بالمئة كحد أقصى مع وجود اختلافات واضحة بين المنصات المختلفة.
الاعتماد المفرط على الذكاء الاصطناعي .. تدابير الحماية الحالية غير كافية
وحذر التقرير الصادر عن المعهد الألماني من أن آليات الوقاية المتوفرة حاليا في النماذج اللغوية الكبيرة لأنظمة الذكاء الاصطناعي. لم تثبت فعاليتها في ردع السلوكيات غير الأخلاقية أو منع الممارسات الخادعة.
وأوضح الباحثون أنهم اختبروا مجموعة متنوعة من استراتيجيات الحماية والوقاية. وخلصوا إلى أن القواعد المانعة للسلوكيات الخادعة. يجب أن تكون دقيقة للغاية ومصممة بعناية فائقة لكي تحقق النتائج المرجوة وتصبح فعالة في الحد من الممارسات غير الأخلاقية.
وفي سياق متصل، أشار باحثون في شركة أمريكية رائدة في مجال تطبيقات الذكاء الاصطناعي في وقت سابق من هذا الشهر. إلى أنه من غير المرجح إمكانية منع برامج الذكاء الاصطناعي من ممارسة ما يعرف بالتلفيق أو تقديم معلومات غير دقيقة.
كما أظهرت دراسات أخرى متخصصة، أنه من الصعب بشكل كبير منع النظام الذكي من خداع مستخدمه وإيهامه بإنجاز المهمة الموكلة إليه على أكمل وجه، بخلاف الحقيقة والواقع الفعلي مما يزيد من حدة المشكلة ويعقد إمكانية إيجاد حلول سريعة.
ويأتي هذا التحذير العلمي في وقت تشهد فيه استخدامات الذكاء الاصطناعي توسعاغير مسبوق، عبر مختلف القطاعات المهنية والأكاديمية، حيث يعتمد عدد متزايد من الأشخاص على هذه التقنيات في إنجاز مهامهم اليومية، مما يثير تساؤلات حادة حول الآثار الأخلاقية المترتبة على هذا الاعتماد المتزايد.
وتبقى إشكالية الموازنة بين الاستفادة من الإمكانات الهائلة للذكاء الاصطناعي، والحفاظ على المعايير الأخلاقية، أحد أهم التحديات التي تواجه المطورين والمستخدمين على حد سواء، في ظل تزايد الأدلة على التأثير السلبي لهذه التقنيات على السلوك الأخلاقي للأفراد.
ياقوت زهرة القدس بن عبد الله