22 يونيو، 2021

جورنالك

الخبر كما هو ، منكم و اليكم

يقول خبراء منظمة العفو الدولية إن البحث في الخوارزميات التي تدعي التنبؤ بالإجرام يجب أن ينتهي

دعا تحالف من باحثي الذكاء الاصطناعي وعلماء البيانات وعلماء الاجتماع العالم الأكاديمي إلى التوقف عن نشر الدراسات التي تدعي التنبؤ بجريمة الفرد باستخدام خوارزميات مدربة على بيانات مثل عمليات مسح الوجه والإحصاءات الإجرامية.

يقول الائتلاف من أجل التكنولوجيا الحرجة إن مثل هذا العمل ليس فقط أميًا من الناحية العلمية ، ولكنه يديم دورة من التحيز ضد السود وذوي البشرة الملونة. تظهر العديد من الدراسات أن نظام العدالة يعامل هذه المجموعات بشكل أكثر قسوة من معاملة البيض ، لذا فإن أي برنامج مدرب على هذه البيانات يضخم ويغرس التحيز والعنصرية المجتمعيين.

"لنكن واضحين: لا توجد طريقة لتطوير نظام يمكنه التنبؤ أو تحديد" الإجرام "غير المتحيز عنصريًا – لأن فئة" الإجرام "نفسها متحيزة عنصريًا". "البحث من هذا النوع – ومزاعمه المصاحبة للدقة – تستند إلى افتراض أن البيانات المتعلقة بالاعتقال والإدانة الجنائيين يمكن أن تكون بمثابة مؤشرات موثوقة ومحايدة للنشاط الإجرامي الأساسي. لكن هذه السجلات أبعد ما تكون عن الحيادية ".

تمت صياغة رسالة مفتوحة كتبها التحالف رداً على أنباء أن سبرينغر ، أكبر ناشر للكتب الأكاديمية في العالم ، خططت لنشر مثل هذه الدراسة فقط. وتدعو الرسالة ، التي تم التوقيع عليها الآن من قبل 1700 خبير ، سبرينغر إلى إلغاء الصحيفة والناشرين الأكاديميين الآخرين الامتناع عن نشر أعمال مماثلة في المستقبل.

وكتبت المجموعة: "في الوقت الذي يتم فيه تحدي شرعية الدولة الجسدية ، والشرطة على وجه الخصوص ، على أسس أساسية في الولايات المتحدة ، هناك طلب كبير في إنفاذ القانون للبحث من هذا النوع". "إن تداول هذا العمل من قبل ناشر رئيسي مثل Springer سيمثل خطوة مهمة نحو إضفاء الشرعية على وتطبيق البحوث التي يتم فضحها بشكل متكرر والمضرة اجتماعيا في العالم الحقيقي."

في الدراسة المعنية ، بعنوان "نموذج شبكة عصبية عميقة للتنبؤ بالإجرام باستخدام معالجة الصور" ، ادعى الباحثون أنهم أنشأوا نظام التعرف على الوجه الذي كان "قادرًا على توقع ما إذا كان شخصًا ما سيكون مجرمًا … مع 80 نسبة الدقة وعدم التحيز العنصري "، وفقا لبيان صحفي محذوف الآن. ضم مؤلفو الورقة طالب دكتوراه وضابط شرطة شرطة نيويورك السابق جوناثان و. كورن.

وردا على الرسالة المفتوحة ، قالت سبرينغر إنها لن تنشر الصحيفة ، بحسب استعراض تكنولوجيا MIT. "وقالت الشركة إن الورقة التي تشير إليها قد تم تقديمها إلى مؤتمر قادم كانت سبرينغر قد خططت لنشر وقائعها. "بعد عملية مراجعة أقران شاملة تم رفض الورقة".

ومع ذلك ، كما يوضح التحالف من أجل التكنولوجيا الحرجة ، فإن هذا الحادث هو مثال واحد فقط في اتجاه أوسع ضمن علم البيانات والتعلم الآلي ، حيث يستخدم الباحثون البيانات الطارئة اجتماعيًا لمحاولة التنبؤ بالسلوك البشري المعقد أو التنبؤ به.

في أحد الأمثلة البارزة من عام 2016 ، ادعى باحثون من جامعة شنغهاي جياو تونغ أنهم أنشأوا خوارزمية يمكن أن تتوقع أيضًا الإجرام من ملامح الوجه. تم انتقاد الدراسة ودحضها ، حيث نشر باحثون من Google و Princeton تحذيرًا مطولًا بشأن النقض من أن باحثي الذكاء الاصطناعي كانوا يعيدون النظر في العلوم الزائفة في علم الفراسة. كان هذا نظامًا تأسس في القرن التاسع عشر من قبل سيزار لومبروسو ، الذي ادعى أنه يمكنه تحديد "المجرمين المولودين" من خلال قياس أبعاد وجوههم.

كتب الباحثون: "عندما يتم تطبيق علم الفراغ الزائف يصبح علمًا زائفًا للعنصرية العلمية". "لقد مكنت التطورات السريعة في الذكاء الاصطناعي والتعلم الآلي العنصرية العلمية من دخول عصر جديد ، حيث تضمنت النماذج المستفادة آليًا التحيزات الموجودة في السلوك البشري المستخدم لتطوير النموذج".

صور مستخدمة في ورقة 2016 زعمت أنها تتنبأ بالإجرام من ملامح الوجه. يُظهر الصف العلوي الوجوه "الإجرامية" بينما يُظهر الصف السفلي "غير المجرمين".
الصورة: Xiaolin Wu و Xi Zhang ، "الاستدلال الآلي على الإجرام باستخدام صور الوجوه"

أوضحت ورقة 2016 أيضًا مدى سهولة أن يخدع ممارسو الذكاء الاصطناعي أنفسهم في التفكير بأنهم وجدوا نظامًا موضوعيًا لقياس الإجرام. لاحظ الباحثون من Google و Princeton أنه ، استنادًا إلى البيانات التي تمت مشاركتها في الصحيفة ، بدا أن جميع "غير المجرمين" يبتسمون ويرتدون القمصان والدعاوى الملتوية ، في حين لم يكن أي من المجرمين (العبوس). من المحتمل أن يكون هذا العرض المرئي البسيط والمضلل هو الذي يوجه التحليل المعقد المفترض للخوارزمية.

تأتي رسالة التحالف من أجل التكنولوجيا الحرجة في وقت تسلط فيه الحركات في جميع أنحاء العالم الضوء على قضايا العدالة العرقية ، التي أثارها مقتل جورج فلويد على يد إنفاذ القانون. وشهدت هذه الاحتجاجات أيضًا تراجع شركات التكنولوجيا الكبرى عن استخدامها لأنظمة التعرف على الوجه ، والتي أظهر البحث الذي أجراه أكاديميون سود أنه متحيز عنصريًا.

يدعو مؤلفو الرسالة وموقعوها مجتمع الذكاء الاصطناعي إلى إعادة النظر في كيفية تقييم "جودة" عمله – التفكير ليس فقط في مقاييس مثل الدقة والدقة ، ولكن في التأثير الاجتماعي الذي يمكن أن تحدثه هذه التكنولوجيا على العالم. يكتب المؤلفون: "إذا كان للتعلم الآلي تحقيق" الخير الاجتماعي "الموصوف في مقترحات المنح والبيانات الصحفية ، يجب على الباحثين في هذه المساحة التفكير بفاعلية في هياكل السلطة (والاضطهاد المصاحب) التي تجعل عملهم ممكنًا".