فرانشيسكو كونتيني
يعمل فرانشيسكو في الوقت الراهن في معهد بحوث النظم القضائية التابع لمجلس البحوث الوطني في إيطاليا كباحث أول. وعمل على نحو وثيق مع عدة منظمات دولية، وساهم في الميثاق الأخلاقي الأخير للمجلس الأوروبي بشأن استخدام الذكاء الاصطناعي في النظم القضائية، وكذلك الدليل المرجعي لمكتب الأمم المتحدة المعني بالمخدرات والجريمة بشأن تعزيز نزاهة القضاء وقدرته.
______________________________
ولأكثر من ثلاثة عقود، اندلعت تطورات تكنولوجيا المعلومات والاتصالات (ICT) في إدارة المحاكم وتشغيلها ومكاتب المدعين العامين متعهدة بالشفافية والكفاءة والتغييرات الجذرية في ممارسات العمل، مثل المحاكم غير الورقية. وحتى لو لم يجرى الوفاء بهذه الوعود في معظم الولايات القضائية، فإن برامج وخوارزميات البرمجيات تعمل على تنفيذ عدد متزايد من الإجراءات القضائية. وتحدث هذه التكنولوجيات أثار إيجابية في معظمها على سير نظم العدالة والقيم التي أيدتها مبادئ بنغالور للسلوك القضائي.
تعتمد أحدث موجة من التكنولوجيا على الذكاء الاصطناعي (AI) وتعد بتغيير الطرق التي تتخذ بها القرارات القضائية. ويتحقق هذا الهدف في معظمه من خلال تكنولوجيا محددة تسمى "التعلم الآلي"، مما يجعل التوقعات بتقييم ملفات القضايا، والوثائق الإجرائية والقرارات القضائية المرتبطة بها على حد سواء. ويجري تحليل هذه المجموعة من البيانات، المعروفة باسم "بيانات التدريب"، من أجل بناء ارتباطات احصائية بين القضايا والقرارات القضائية المرتبطة بها. كلما زادت معالجة الخوارزمية للبيانات، كلما زادت دقة توقع القرارات في الحالات الجديدة. لهذا السبب، فإن هذه الأنظمة تتعلم (حتى لو كان ذلك فقط من حيث زيادة الدقة الإحصائية) لتكرار النتائج التي توصل إليها القضاة في قضايا مماثلة. على عكس الأدوات التكنولوجية الموجودة بالفعل والتي تعمل على رقمنة تبادل البيانات والوثائق، تهدف تقنية العدالة التنبؤية (كما يوصف عادة بشكل خاطئ) إلى التأثير على عملية صنع القرار القضائي1. وليس واضحاً ما إذا كان هذا الاتجاه يؤدي إلى اتخاذ قرارات أفضل أو إذا كان يقوض الأداء السليم للنظام.
ويمكن استكشاف الأثر المحتمل لهذه التكنولوجيا على إقامة العدل من خلال النظر إلى التحديات التي تطرحها تكنولوجيا المعلومات الموجودة بالفعل، مثل إدارة القضايا وايداع الملفات الإلكتروني. وفي انكلترا وويلز، أدى خطأ حسابي بسيط أدرج في الشكل الرسمي المستخدم في قضايا الطلاق إلى حساب خاطئ لنفقة الاطفال في 3600 حالة على مدى 19 شهرا. والمشكلة ليست الخطأ في حد ذاته، ولكن في الأسباب التي دفعت وزارة العدل والمستخدمين إلى عدم اكتشاف الخطأ لفترة طويلة من الزمن. ويميل مستخدمو التكنولوجيا إلى التركيز على الوصلات البينية والأدوات التي تمكن من استخدام النظم التكنولوجية وليس أدائها الداخلي.
وتوفر تكنولوجيا المحاكم الكم الهائل من البيانات ذات الصلة بالقضايا لزيادة الشفافية، ولكن كيف أن النظم التي تحلل داخليا من الصعب الوصول إليها ويصعب إخضاعها للمساءلة. ومن ثم، فإن السؤال العام هو ما هي الإمكانيات المتاحة لنشر ضوابط فعالة على أساليب عمل تكنولوجيات المعلومات والاتصالات والخوارزميات التي تعالج البيانات.
وفي الواقع هناك مسألة أخرى هي، كيفية ضمان الرقابة والمساءلة السليمين، وفيما يتعلق بسير التكنولوجيا وما إذا كانت منظمة العفو الدولية (ومزيد من الدقة في تعلم الآلة) هي حالة خاصة في هذه العملية للمساءلة.
وقد اعتمدت عدة ولايات قضائية، وتحديداً في الولايات المتحدة، تكنولوجيا توصي باتخاذ قرارات بشأن الاحتجاز قبل المحاكمة. وتستخدم هذه التطبيقات الخوارزميات التي تحسب مخاطر العودة إلى الإجرام، و "تسجل" المدعى عليه على أساس احتمال ارتكاب جريمة ما إذا أطلق سراحه.
هذا النوع من المواقف يضع القاضي في موقف محرج فلنفترض أن هناك حالة يميل فيها القاضي إلى الإفراج عن المدعى عليه في الحبس الاحتياطي، ولكن النتيجة توضح وجود مخاطر عالية من معاودة الإجرام. فهل ينبغي أن يكون القاضي مستعداً لمواجهة حساب تقييم المخاطر الذي أجرته الآلة؟ وماذا لو أطلق سراح المتهم ثم ارتكب جريمة؟ ويؤكد الطعن المعياري لهذه الحجة على أن النظم تستفيد من البيانات المتاحة. ويقال إن الأساليب العلمية المستخدمة لحساب مخاطر العودة إلى الإجرام تكون أكثر قوة وموثوقية من تلك التي يستخدمها القضاة المستقلين. وهذه الحجة ذات صلة بالموضوع، ولكن كيف يمكننا ضمان عدم تحيز البيانات؟ إن ضمان المساءلة أكثر تعقيدا بكثير من التكنولوجيا المبسطة.
تجرى بروبوبليكا، وهي منظمة أمريكية لا تستهدف الربح، تحقيقات عن المصلحة العامة، حيت يجرى مقارنة المعاودة الفعلية لارتكاب الجريمة مع النكوص المتنبئ به.
وخلص تحليل 000 10 قضية من قضايا المتهمين الجنائيين إلى أن "المدعى عليهم من ذوي البشرة السمراء يمكن أن يحاكموا على نحو غير صحيح على أنهم معرضون لخطر معاودة الإجرام أكثر بكثير من المدعى عليهم من ذوي البشرة البيضاء، وعلى الرغم من أن المتهمين ذوي البشرة البيضاء كانوا على الأرجح أكثر احتمالاً من المتهمين ذوي البشرة السود، فقد أُعلِموا خطأً بأنه خطر منخفض ". وتبين هذه الحالة أن من الصعب تحقيق المساءلة، وأن هذه النظم يمكن أن تثير التحيزات في العمليات القضائية.
التكنولوجيا - سواء استخدمت في إدارة القضايا ، أو استمارات بسيطة على شبكة الإنترنت ، أو المهام الأكثر تعقيدا القائمة على منظمة العفو الدولية - ينبغي أن تكون أُدخلت في العملية القضائية إذا وفقط وإذا كانت هناك آليات مساءلة سليمة.
إن مشكلة المساءلة تكون أشد حدة مع أنظمة الذكاء الاصطناعي التي تستند إلى التعلم الآلي. وفي هذه الحالة، يستند التنبؤ على الخوارزميات التي تتغير بمرور الوقت. مع تعلم الآلة، الخوارزميات (تتعلم); (تتغير) وتستند على خبرتها الخاصة. مع تغير الخوارزميات، لا نعرف كيف يعملون ولماذا يفعلون ذلك بطرق معينة. وإذا لم نتمكن من اعتماد آليات فعالة للمراقبة، كيف يمكننا ضمان المساءلة الصحيحة؟ ينبغي اعتماد المبدأ الوقائي ريثما يجرى حل هذه المسائل من منظور تقني ومؤسسي.
ويتبع المبدأ الوقائي والتحذيري المذكور في هذه المادة نفس الاتجاه الذي يتبع به الميثاق الأخلاقي لمجلس أوروبا بشأن استخدام الذكاء الاصطناعي في النظم القضائية، ولا سيما مبادئ احترام الحقوق الأساسية وإبقاء المستخدمين تحت المراقبة. غير أن كيفية تنفيذ هذه المبادئ التوجيهية ليست واضحة بعد. ولا يمكن بالتأكيد القاء اللوم على المحامين، والأطراف في القضايا، والقضاة المستقلين المضطلعين بهذه المهمة. ويعد تحدى ينبغي مواجهته بتجميع الكفاءات المتعددة الأوجه، ورصد أداء النظم، ووضع المعايير المرجعية لمنظمة العفو الدولية في ضوء القيم الأساسية لمبادئ بنغالور للسلوك القضائي. وان تحدياً المشاركون في الشبكة العالمية للنزاهة القضائية أن يكونوا في وضع جيد للمواجهة.
ويعد لفظ "العدالة التنبؤية" مضلل إلى حد خطير، لأن مثل هذه النظم قابلة للتنبؤ، وليست قرارات قضائية. وتتطلب هذه القرارات ، كمعيار أدنى، تقديم مبررات تستند إلى تقييم الوقائع ذات الصلة والأنظمة الواجبة التطبيق. فنظم الذكاء الاصطناعي تجعل العلاقات الإحصائية والتنبؤات الخاصة بها مجرد نتيجة لتلك العلاقات. ومن ثم ، لن يكون من المناسب التحدث عن العدالة التنبؤية الفعلية حيث تقدم النظم تبريرات من حيث الوقائع والقوانين.