پلیس پیش بینی: پیشگیری از جرم یا تقویت سوگیری؟

اعتبار تصویر:
تصویر های اعتباری
iStock

پلیس پیش بینی: پیشگیری از جرم یا تقویت سوگیری؟

پلیس پیش بینی: پیشگیری از جرم یا تقویت سوگیری؟

متن زیر عنوان
اکنون از الگوریتم‌ها برای پیش‌بینی محل وقوع جرم بعدی استفاده می‌شود، اما آیا می‌توان به داده‌ها برای عینی ماندن اعتماد کرد؟
    • نویسنده:
    • نام نویسنده
      آینده نگاری کوانتوم ران
    • ممکن است 25، 2023

    استفاده از سیستم‌های هوش مصنوعی (AI) برای شناسایی الگوهای جرم و پیشنهاد گزینه‌های مداخله برای جلوگیری از فعالیت‌های مجرمانه در آینده می‌تواند یک روش جدید امیدوارکننده برای سازمان‌های مجری قانون باشد. با تجزیه و تحلیل داده‌هایی مانند گزارش‌های جرم، سوابق پلیس و سایر اطلاعات مرتبط، الگوریتم‌ها می‌توانند الگوها و روندهایی را شناسایی کنند که تشخیص آنها برای انسان دشوار است. با این حال، استفاده از هوش مصنوعی در پیشگیری از جرم، سؤالات اخلاقی و عملی مهمی را مطرح می کند. 

    زمینه پلیسی پیش بینی کننده

    پلیس پیش‌بینی‌کننده از آمار و الگوریتم‌های جرایم محلی برای پیش‌بینی احتمال وقوع جنایات بعدی استفاده می‌کند. برخی از ارائه‌دهندگان پلیس پیش‌بینی، این فناوری را برای پیش‌بینی پس‌لرزه‌های زمین‌لرزه اصلاح کرده‌اند تا مناطقی را که پلیس باید مکرراً برای جلوگیری از جنایات در آن‌ها گشت‌زنی کند، مشخص کند. جدای از «نقاط داغ»، این فناوری از داده‌های دستگیری محلی برای شناسایی نوع فردی که احتمال ارتکاب جرم را دارد، استفاده می‌کند. 

    ارائه‌دهنده نرم‌افزار پلیس پیش‌گویانه مستقر در ایالات متحده Geolitica (که قبلاً به عنوان PredPol شناخته می‌شد)، که فناوری آن در حال حاضر توسط چندین نهاد مجری قانون استفاده می‌شود، ادعا می‌کند که آنها مؤلفه مسابقه را در مجموعه داده‌های خود حذف کرده‌اند تا پلیس بیش از حد افراد رنگین پوست را حذف کنند. با این حال، برخی از مطالعات مستقل انجام شده توسط وب‌سایت فناوری Gizmodo و سازمان تحقیقاتی The Citizen Lab نشان داد که الگوریتم‌ها در واقع سوگیری‌ها را علیه جوامع آسیب‌پذیر تقویت می‌کنند.

    برای مثال، یک برنامه پلیسی که از الگوریتمی برای پیش‌بینی اینکه چه کسی در معرض خطر درگیر شدن در جنایات خشونت‌آمیز مرتبط با اسلحه استفاده می‌کرد، پس از اینکه فاش شد که 85 درصد از افرادی که بالاترین امتیاز خطر را دارند، مردان آفریقایی آمریکایی بودند، با انتقاد مواجه شد. بدون سابقه جنایی خشونت آمیز قبلی این برنامه که فهرست موضوعات استراتژیک نامیده می شود، در سال 2017 زمانی که شیکاگو سان تایمز پایگاه داده ای از این فهرست را به دست آورد و منتشر کرد، مورد بررسی قرار گرفت. این حادثه پتانسیل سوگیری در استفاده از هوش مصنوعی در اجرای قانون و اهمیت در نظر گرفتن دقیق خطرات و پیامدهای احتمالی قبل از اجرای این سیستم ها را برجسته می کند.

    تاثیر مخرب

    اگر درست انجام شود، فوایدی برای پلیس پیش بینی وجود دارد. همانطور که اداره پلیس لس آنجلس گفت که الگوریتم‌های آن‌ها منجر به کاهش 19 درصدی سرقت‌ها در نقاط حساس مشخص شده، پیشگیری از جرم یک مزیت بزرگ است. مزیت دیگر تصمیم گیری مبتنی بر اعداد است، جایی که داده ها الگوها را دیکته می کنند، نه تعصبات انسانی. 

    با این حال، منتقدان تاکید می‌کنند که از آنجایی که این مجموعه داده‌ها از دپارتمان‌های پلیس محلی، که سابقه دستگیری بیشتر افراد رنگین پوست (به ویژه آفریقایی‌تبارها و آمریکایی‌های لاتین) را داشته‌اند، به دست آمده‌اند، این الگوها صرفاً سوگیری‌های موجود علیه این جوامع را برجسته می‌کنند. بر اساس تحقیقات Gizmodo با استفاده از داده‌های Geolitica و چندین آژانس مجری قانون، پیش‌بینی‌های Geolitica الگوهای واقعی پلیس‌سازی بیش از حد و شناسایی جوامع سیاه‌پوست و لاتین تبار، حتی افراد درون این گروه‌ها با سوابق دستگیری صفر را تقلید می‌کند. 

    سازمان‌های حقوق مدنی نگرانی‌های خود را در مورد استفاده روزافزون از پلیس پیش‌بینی‌کننده بدون حاکمیت و سیاست‌های نظارتی مناسب ابراز کرده‌اند. برخی استدلال کرده‌اند که «داده‌های کثیف» (ارقام به‌دست‌آمده از طریق اعمال فاسد و غیرقانونی) در پشت این الگوریتم‌ها استفاده می‌شوند، و آژانس‌هایی که از آنها استفاده می‌کنند، این سوگیری‌ها را پشت «شستن فناوری» پنهان می‌کنند (ادعا می‌کنند که این فناوری عینی است زیرا صرفاً وجود ندارد. دخالت انسان).

    انتقاد دیگری که پلیس پیش بینی با آن مواجه است این است که درک نحوه عملکرد این الگوریتم ها برای عموم دشوار است. این فقدان شفافیت می‌تواند مسئولیت‌پذیری سازمان‌های مجری قانون را در قبال تصمیم‌هایی که بر اساس پیش‌بینی‌های این سیستم‌ها می‌گیرند، دشوار کند. بر این اساس، بسیاری از سازمان‌های حقوق بشری خواستار ممنوعیت فناوری‌های پلیسی پیش‌بینی‌کننده، به‌ویژه فناوری تشخیص چهره هستند. 

    پیامدهای پلیس پیش بینی

    پیامدهای گسترده تر پلیس پیش بینی ممکن است شامل موارد زیر باشد:

    • حقوق مدنی و گروه های به حاشیه رانده شده در حال لابی و عقب نشینی علیه استفاده گسترده از پلیس پیش بینی کننده، به ویژه در جوامع رنگین پوست.
    • فشار بر دولت برای تحمیل یک سیاست یا بخش نظارتی برای محدود کردن نحوه استفاده از پلیس پیش بینی. قوانین آینده ممکن است آژانس‌های پلیس را مجبور به استفاده از داده‌های پروفایل شهروندان بدون سوگیری از اشخاص ثالث مورد تایید دولت برای آموزش الگوریتم‌های پلیسی پیش‌بینی مربوطه خود کنند.
    • سازمان‌های مجری قانون بیشتری در سراسر جهان با تکیه بر نوعی از پلیس پیش‌بینی‌کننده برای تکمیل استراتژی‌های گشت‌زنی خود.
    • دولت های مستبد از نسخه های اصلاح شده این الگوریتم ها برای پیش بینی و جلوگیری از اعتراضات شهروندان و سایر مزاحمت های عمومی استفاده می کنند.
    • کشورهای بیشتری فناوری های تشخیص چهره را در سازمان های مجری قانون خود تحت فشار فزاینده مردم ممنوع می کنند.
    • افزایش شکایت علیه سازمان های پلیس به دلیل سوء استفاده از الگوریتم ها که منجر به دستگیری های غیرقانونی یا اشتباه شده است.

    سوالاتی که باید در نظر گرفته شود

    • آیا فکر می کنید باید از پلیس پیش بینی استفاده کرد؟
    • فکر می‌کنید الگوریتم‌های پلیسی پیش‌بینی چگونه نحوه اجرای عدالت را تغییر می‌دهند؟