ماذا تعرفون عن عدالة الذكاء الاصطناعي: أدوات تقييم المخاطر أنموذجًا

السبت 20 ربيع الثاني 1442ھ السبت 5 ديسمبر 2020م
فيسبوك
إكس
واتساب
تيليجرام
لينكدإن

788 كلمة

7 دقائق

المحتوى

عندما يتّخذ القضاة قرارات تتعلّق بالإفراج المشروط، فإنهم يحاولون في الغالب التطلّع نحو مستقبل الجاني، ومدى احتمالية عودته لتجاوز القانون مرةً أخرى. وللمساعدة في توجيه هذه القرارات، بدأت بعض الدول كالولايات المتحدة الأميركية، تتجّه تدريحيًّا إلى الاستعانة بأدوات تقييم المخاطر المستندة على الذكاء الاصطناعي وهي أدوات يتم استخدامها لتحديد أولئك الذين يمكن أن يكرّروا جرائمهم مجدّدًا. وتؤكد دراسة نُشرت هذا العام في مجلة “ساينس آدفينس” العلميّة أنّ الأحكام الناتجة عن خوارزميات هذه الأدوات قد تكون أكثر دقّة من البشر. ومع ذلك، فإنّ ما يثير القلق هو أنّ المخاطر التي ينطوي عليها الأمر كالجرائم المستقبلية أو حرية المدّعى عليه وغيرها. ولا تزال غير موثوقة بدرجةٍ كافية لضمان استحقاق العدالة على نحوٍ جدير، وتجنب الأخطاء المأساوية.

1- تباين في الأبحاث

إنّ الدراسة التي قام بها مجموعة من الباحثين، تشكّل في الواقع ردًّا على عملٍ بحثي سابقٍ قامت به خبيرة برمجة واختصاصي في الصور الرقمية. وقد جرى خلاله استقدام مشاركين للتكهّن بشأن خمسين فردًا  من الجناة، إذا ما كانوا قد يعيدون تجاوز القانون على اختلاف أشكاله في غضون العامين المقبلين. وتمّ ذلك استنادًا إلى ملخّص قصير لتاريخ قضاياهم. ولم يتمّ تقديم أيّ صور أو معلومات عرقية للمشاركين في هذا البحث، تفاديًا لتحريف النتائج بسبب التحيّزات ذات الصلة. وقد بلغ متوسط معدّل الدقة الذي حقّقه المشاركون نسبة 62%. وبعد ذلك جرى الاستعانة بـ “كومباس” وهي أداة تقييم المخاطر ودعم اتخاذ القرار، والتي يجري استخدامها في المحاكم الأميركية لتقييم احتمال عودة المدّعى عليهم للأنشطة الجرمية. والمفارقة، أنّ دقة التوقعات كانت قريبة جدًّا من نسبة المشاركين إذ بلغت 65%، ما دفع الباحثَين إلى استنتاجٍ مفاده أنّ “كومباس” ليست أكثر دقّة من التوقعات التي يقدمها أشخاص ليس لديهم خبرة كبيرة في نظام العدالة الجنائية.

2- التداعيات المترتّبة

تسجّل الولايات المتحدة عدد مسجونين أكثر من أي دولة أخرى حول العالم. وبحسب منظمة “مبادرة سياسة السجون” الأميركية ما يقرب من 2.3 مليون بالغ محتجزين في السجون، كما يوجد حوالي 4.5 مليون آخرين في مرافق إصلاحية أخرى. وبتعبيرٍ آخر، هناك شخصٌ واحد من كل 38 أمريكيًا بالغًا يخضع لشكل من أشكال الإشراف الإصلاحي. وتحت ضغوطٍ هائلة، تدفعها للتقليل من أعداد السجون دون زيادة معدلات الجريمة، لجأت قاعات المحاكم في مختلف أنحاء البلاد إلى استخدام أدواتٍ ذكية في محاولات لنقل المتّهمين عبر النظام القانوني بكفاءةٍ وأمان قدر الإمكان.

يُستخدم الذكاء الاصطناعي في كل مهمة يمكن تخيلها. وتستخدم أقسام الشرطة خوارزميات مثل “بريدبول” و “هانش لاب” لتحديد الأماكن الأكثر احتمالية لحدوث الجريمة. وتستعين وكالات إنفاذ القانون، بأنظمة التعرّف على الوجه من أجل التعرّف على المشتبه بهم المحتملين من لقطات الفيديو. وقد راكمت هذه الممارسات تساؤلات جدية عمّا إذا كانت تُحسّن السلامة داخل المجتمعات، أم أنها تكرّس لأوجه عدم المساواة القائمة. فقد أثبت الباحثون والمدافعون عن الحقوق المدنية على سبيل المثال مراراً وتكراراً أن أنظمة التعرّف على الوجه من الممكن أن تفشل بشكلٍ كبير، وخاصة مع الأفراد الذين لديهم بشرة داكنة.

3- أدوات تقييم المخاطر

ai judge gavel

وبالنسبة لهذه الأدوات فقد تمّ تصميمها للقيام بشيءٍ واحد: أخذ تفاصيل الملف التعريفي للمدّعى عليه، مثل العمر، والحالة الاجتماعية، والخلفية الأسرية، وغيرها من المعلومات، وتحديد درجة احتمالية العودة إلى ارتكاب الجريمة. وبعد ذلك يقوم القاضي بناءً على النتيجة بإدراج عوامل أخرى، يمكن لها تحديد نوع إجراءات إعادة التأهيل التي يجب أن يتلقاها المدّعى عليه، وما إذا كان ينبغي سجنه قبل المحاكمة وغيرها. وبهذه الحالة فالنتيجة المنخفضة الناتجة عن الأدوات تتحكّم بمصيرٍ ألطف ، فيما النتيجة المرتفعة هي العكس تمامًا.

إنّ المنطق الذي يستند إليه استخدام أدوات تقييم المخاطر للخوارزميات، هو أنّه إذا كان هناك من إمكانية لتوقّع السلوك الإجرامي، فبالإمكان تخصيص الموارد وفقًا لذلك، مثل شدّة العقوبات وخدمات إعادة التأهيل. ومن الناحية النظرية، يمكن لذلك أن يقلّل من أي تحيّز يؤثر على العملية، لأن القضاة يتّخذون قراراتٍ واعية استنادًا إلى البيانات بدلًا من حدسهم. ولكن هنا تكمن المشكلة! ذلك أنه غالبًا ما تكون هذه الأدوات مدفوعة بخوارزميات قد تمّ تغذيتها  ببيانات سجلّ الجرائم الزمني.

وترتكز خوارزميات التعلّم الآلي على الإحصائيات لإيجاد الأنماط في البيانات. لذلك، إذا قمنا بتزويدها ببيانات الجرائم التاريخية، فسوف تتعرّف وتنتقي الأنماط المرتبطة بالجريمة. إلّا أنّ هذه الأنماط هي علاقات إحصائية متبادلة وليست ذات العلاقة السببية. فعلى سبيل المثال، إذا وجدت خوارزمية أنّ الدخل المنخفض مرتبط بارتفاع معدل العودة إلى الإجرام، فإنها ستمنح المدّعى عليهم الذين ينتمون إلى خلفيات منخفضة الدخل درجةً أعلى في احتمالية ارتكاب الجريمة مجدّدًا. وهذا ما تفعله أدوات تقييم المخاطر: تحويل الرؤى المترابطة إلى آليات تسجيل سببية. وفي هذه الحالة سيتعرّض المدعى عليهم للتمييز من قبل جهات نفاذ القانون لمجرّد أن الأدوات قد حكمت عليهم، في حين أنها قد لا تكون دقيقة في حكمها. ونتيجةً لذلك، يمكن للخوارزمية أن تعمل على تضخيم وإدامة التحيزات، وأن تؤدي إلى نشوء بيانات شاذة.

ولا تزال المناقشات محتدمة حول أدوات تقييم المخاطر. وفي عام 2018، وقّع أكثر من 100 منظمة معنية بالحقوق المدنية، بيانًا وجهّت خلاله اللوم والانتقادات لاستخدامها. ذلك أنّ هذه الأدوات قد تتحوّل إلى وسيلةٍ لإضفاء الشرعية على الأنظمة القمعية حول العالم، كما أنها قد تحرف النظر عن المشكلات الحقيقية التي قد تعاني منها الأقليات في المجتمعات على اختلافها.

نشرة فهم البريدية
لتبقى على اطلاع دائم على كل ما هو جديد مما تقدمه منصة فهم، انضم لنشرتنا البريدية.
باحث في مجال الذكاء الاصطناعي. كاتب تقني. يرتكز عمله المهني على توفير المهارات الإستراتيجية لدعم وفهم تقنية الذكاء الاصطناعي في المنطقة العربية. أنجز العديد من الدراسات والمقالات العلمية في الذكاء الاصطناعي، وتركّز أبحاثه على التأثير الحقيقي لهذه التقنية في مختلف المجالات.
  1. ناظم بن ناظر ناظم بن ناظر

    أحسنت أستاذ معاذ وبارك الله فيك.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *