
تهدف تقنية “العدالة التنبؤية” إلى التأثير على عملية صنع القرار القضائي، وتعتمد أحدث موجة من التكنولوجيا على الذكاء الاصطناعي.
يتم تحقيق هذا الهدف في الغالب من خلال تقنية محددة تسمى “التعلم الآلي” التي تقوم بالتنبؤات من خلال تقييم ملفات القضايا، سواء الوثائق الإجرائية أو القرارات القضائية المرتبطة بها. يتم تحليل مجموعة البيانات المعروفة باسم “بيانات التدريب”، لبناء ارتباطات إحصائية بين القضايا والأحكام القضائية المرتبطة بها. كلما زادت معالجة الخوارزمية للبيانات، أصبحت أكثر دقة في التنبؤ بالقرارات في الحالات الجديدة. إن تسمية “العدالة التنبؤية” مضللة بشكل خطير، لكونها أنظمة تقوم بالتنبؤات، ليس اتخاذ القرارات القضائية. تتطلب القرارات القضائية، كحد أدنى، مبررات مبنية على تقييم الوقائع ذات الصلة واللوائح المعمول بها. تقوم أنظمة الذكاء الاصطناعي بإجراء ارتباطات إحصائية وتكون توقعاتها مجرد نتيجة لتلك الارتباطات. ومن ثم، فإنه لن يكون من المناسب الحديث عن العدالة التنبؤية الفعلية إلا إذا كانت الأنظمة تقدم مبررات من حيث الحقائق والقوانين. ويمكن استكشاف الأثر المحتمل لهذه التكنولوجيا على إقامة العدل من خلال النظر في التحديات التي تطرحها تكنولوجيا المعلومات الموجودة بالفعل، مثل إدارة القضايا وتقديم الملفات الإلكترونية. وفي إنجلترا وويلز، أدى خطأ حسابي بسيط مضمن في النموذج الرسمي المستخدم في قضايا الطلاق إلى حساب خاطئ للنفقة في 3600 حالة على مدى 19 شهرا. المشكلة ليست في الخطأ في حد ذاته، ولكن في أسباب عدم اكتشاف وزارة العدل ومستخدمي النموذج للخطأ لفترة طويلة. يميل مستخدمو التكنولوجيا إلى التركيز على الواجهات وعلى الأدوات التي تمكن من استخدام الأنظمة التكنولوجية وليس على أدائها الداخلي. كما يتم توفير قدر كبير من البيانات المتعلقة بالقضايا عن طريق تكنولوجيا المحكمة لزيادة الشفافية، ولكن من الصعب الوصول إلى كيفية تحليل الأنظمة داخليًا.
من الصعب إخضاعها للمساءلة. ومن ثم، فإن السؤال العام هو ما هي إمكانيات نشر ضوابط فعالة على الأعمال الداخلية لتكنولوجيا المعلومات والاتصالات والخوارزميات التي تعالج البيانات. والسؤال الآخر هو، في الواقع، كيفية ضمان الإشراف المناسب والمساءلة على عمل التكنولوجيا وما إذا كان الذكاء الاصطناعي (والتعلم الآلي بشكل أكثر دقة) يمثل حالة غريبة في ممارسة المساءلة هذه.