
تهدف الأبحاث في مجال الذكاء الاصطناعي في التعليم (AIED)، في المقام الأول إلى دعم تعلم الطلاب، فإن الخبرة في مجالات أخرى من الذكاء الاصطناعي تشير إلى أن مثل هذه النوايا الأخلاقية ليست كافية في حد ذاتها.
ومن الضروري أيضا النظر بشكل صريح في قضايا مثل العدالة والمساءلة والشفافية والتحيز والاستقلالية والعمل والشمول. على مستوى أكثر عمومية، من الضروري أيضا التمييز بين القيام بالأشياء بشكل أخلاقي والقيام بالأشياء بشكل أخلاقي، لفهم واختيار الخيارات التعليمية الأخلاقية، والنظر في الاحتمال الدائم للعواقب غير المقصودة. ومع ذلك، فإن الإجابة على هذه الأسئلة وغيرها ذات الصلة ليست بالأمر التافه على الإطلاق. كخطوة أولى في سد هذه الفجوة الحرجة، قمنا بدعوة 60 من كبار الباحثين في مجتمع للرد على استبيان يتناول أسئلة حول أخلاقيات وتطبيق الذكاء الاصطناعي في السياقات التعليمية.
المخاوف الأخلاقية
إن جميع أعضاء مجتمع أبحاث الذكاء الاصطناعي في التعليم (AIED) تحفزهم المخاوف الأخلاقية، مثل تحسين نتائج التعلم للطلاب والفرص طوال الحياة. ومع ذلك، كما لوحظ في مجالات تطبيق الذكاء الاصطناعي الأخرى، فإن النوايا الأخلاقية ليست كافية في حد ذاتها، لأن النوايا الحسنة لا تؤدي دائما إلى تصميمات أو عمليات نشر أخلاقية، هناك حاجة إلى اهتمام دقيق لفهم ما يعنيه أن تكون أخلاقيًا على وجه التحديد في سياق (AIED).
إن السياقات التعليمية التي تطمح تقنيات (AIED) إلى تحسينها تسلط الضوء على الحاجة إلى التمييز بين القيام بالأشياء الأخلاقية والقيام بالأشياء بشكل أخلاقي، لفهم واختيار الخيارات التعليمية الأخلاقية، لمراعاة احتمال حدوث عواقب غير مقصودة دائمًا، بالإضافة إلى العديد من الاعتبارات الأخرى. ومع ذلك، فإن معالجة هذه الأسئلة وغيرها من الأسئلة ذات الصلة ليست بالمسألة التافهة على الإطلاق، لأسباب ليس أقلها أنه يظل صحيحًا أنه “لم يتم تصميم إطار عمل، ولم يتم الاتفاق على مبادئ توجيهية، ولم يتم تطوير أي سياسة، ولم يتم اعتماد أي لوائح لمعالجة مسائل أخلاقية محددة”.
الأساليب المستخدمة
كخطوة أولى في سد هذه الفجوة الحرجة، أجرت دراسة بحثية بدعوة 60 من كبار الباحثين في مجتمع AIED (الذين يتم تشغيلهم بشكل أساسي عن طريق الاستشهادات و/أو السمعة) للرد على استبيان يتناول أسئلة حول أخلاقيات وتطبيق الذكاء الاصطناعي في السياقات التعليمية.
المشاركون الـ 17 (حسب الترتيب الأبجدي لاسم العائلة) هم: فنسنت ألفين (جامعة كارنيجي ميلون، الولايات المتحدة الأمريكية)، إيج إيبرت بيتنكورت (يوفال، البرازيل)، خيسوس بوتيكاريو (UNED، إسبانيا)، سيمون باكنجهام شوم (UTS، أستراليا)، موتلو كوكوروفا ( كلية لندن الجامعية، المملكة المتحدة)، بن دو بولاي (جامعة ساسكس، المملكة المتحدة)، جانيس جوبيرت (روتجرز، الولايات المتحدة الأمريكية)، كين هولستين (جامعة كارنيجي ميلون، الولايات المتحدة الأمريكية)، جودي كاي (جامعة سيدني، أستراليا)، كين كودينجر (جامعة كارنيجي ميلون، الولايات المتحدة الأمريكية)، بروس ماكلارين (جامعة كارنيجي ميلون، الولايات المتحدة الأمريكية)، ما. مرسيدس تي. رودريجو (جامعة أتينيو دي مانيلا، الفلبين)، أولجا سي سانتوس (جامعة الأمم المتحدة، إسبانيا)، إيلين سكانلون ( OU، المملكة المتحدة)، ومايك شاربلز (OU، المملكة المتحدة)، وإرين ووكر (جامعة بيتسبرغ، الولايات المتحدة الأمريكية) وبيفرلي وولف (UMASS، الولايات المتحدة الأمريكية).
نلخص أولا الخلفية (بما في ذلك أخلاقيات الذكاء الاصطناعي بشكل عام وأخلاقيات البيانات التعليمية) ونقدم أخلاقيات الذكاء الاصطناعي في التعليم (AIED)، بعد ذلك نقوم بوصف الأساليب المستخدمة في هذا المشروع، قبل تلخيص إجابات الاستطلاع (ملاحظة: جميع الإجابات المذكورة في هذه المقالة حرفية، مع وضع علامة على أي كلمات تمت إضافتها أو إزالتها للتوضيح بأقواس مربعة أو علامات حذف، حسب الاقتضاء). ونختتم بمناقشة القضايا التي أثارها التحقيق واقتراح الخطوات التالية.
التأثير المحتمل
استضافت مؤتمرات AIED في عامي 2018 و2019 ورشة عمل بعنوان “أخلاقيات (AIED) من يهتم؟”، على الرغم من أن مناقشات ورشة العمل كانت جذابة ومثمرة، إلا أن العدد الصغير من المشاركين أشار إلى مستوى مخيب للآمال من الاهتمام بالموضوع من مجتمع (AIED) بشكل عام مثل الذكاء الاصطناعي الآخر. تهتم المجتمعات بشكل متزايد بالاعتبارات الأخلاقية المتعلقة بتصميم ونشر التقنيات القائمة على الذكاء الاصطناعي، والأبعاد الأخلاقية لها لا يبدو أن (AIED) حتى الآن مجال اهتمام مركزي للكثيرين في مجتمع (AIED) منذ أن نشر (Aiken وEpstein) إرشاداتهما الأخلاقية قبل عشرين عامًا لبدء محادثة حول أخلاقيات (AIED Aiken and Epstein 2000) هناك، لقد كانت ندرة الأعمال المنشورة في مجتمع (AIED) التي تركز بشكل واضح على الأخلاق، بغض النظر عن التأثير المحتمل يبدو أن تصميمات وأساليب نشر (AIED) على الطلاب والمعلمين والمجتمع الأوسع لم يتم تقييمها بشكل كامل بعد.
ومع ذلك، فمن المقبول عمومًا داخل المجتمع أن يثير (AIED) أسئلة بعيدة المدى ذات آثار أخلاقية مهمة للطلاب والمعلمين وأولياء الأمور وصانعي السياسات وأصحاب المصلحة الآخرين. تتخلل المخاوف الأخلاقية العديد من الاهتمامات الأساسية للمجتمع، بما في ذلك على سبيل المثال لا الحصر: دقة تشخيص المتعلمين الذين يتفاعلون مع أنظمة (AIED)؛ اختيار طرق التدريس التي تستخدمها أنظمة (AIED)؛ والتنبؤات بنتائج التعلم التي تقدمها هذه الأنظمة؛ قضايا العدالة والمساءلة والشفافية؛ والأسئلة المتعلقة بتأثير الذكاء الاصطناعي وتحليلات التعلم على عملية صنع القرار لدى المعلمين.
معالجة التحديات
في العديد من النواحي، يعتبر (AIED) في حد ذاته إجابة على كل من هذه الأسئلة وأكثر – والتي يتم تناول معظمها، بطريقة أو بأخرى، في العمل في مجالات البحث الفرعية المختلفة في (AIED)، على سبيل المثال، تم الاعتراف منذ فترة طويلة بأن الأسئلة المتعلقة بملكية البيانات والتحكم في تفسيراتها ضرورية في (AIED) على سبيل المثال.
ومع ذلك، فإن ما نفتقر إليه حاليًا هو الأساس للتفكير الأخلاقي الهادف اللازم للابتكار في (AIED)، لمساعدة الباحثين على تحديد أفضل السبل للمساهمة في معالجة هذه التحديات بشكل صريح. يتطلب هذا مشاركة عميقة مع كل من المناقشات والأطر الأخيرة المتعلقة بالأخلاقيات في المجالات الفرعية الأخرى لأبحاث الذكاء الاصطناعي، ومع الأسئلة الأخلاقية الخاصة بالمجال الفرعي (AIED) نفسه (على سبيل المثال، الأسئلة حول أصول التدريس)، والتي لا يزال العديد منها بدون إجابة (على الرغم من وجود بعض الاستثناءات).
نسرين. ع