پیش گوئی کرنے والی پولیسنگ: جرم کی روک تھام یا تعصبات کو تقویت دینا؟

تصویری کریڈٹ:
تصویری کریڈٹ
iStock

پیش گوئی کرنے والی پولیسنگ: جرم کی روک تھام یا تعصبات کو تقویت دینا؟

پیش گوئی کرنے والی پولیسنگ: جرم کی روک تھام یا تعصبات کو تقویت دینا؟

ذیلی سرخی والا متن
الگورتھم اب یہ اندازہ لگانے کے لیے استعمال کیے جا رہے ہیں کہ آگے جرم کہاں ہو سکتا ہے، لیکن کیا ڈیٹا کو معروضی رہنے کے لیے بھروسہ کیا جا سکتا ہے؟
    • مصنف:
    • مصنف کا نام
      Quantumrun دور اندیشی
    • 25 فرمائے، 2023

    آرٹیفیشل انٹیلی جنس (AI) سسٹم کا استعمال جرائم کے نمونوں کی نشاندہی کرنے اور مستقبل میں مجرمانہ سرگرمیوں کو روکنے کے لیے مداخلت کے اختیارات تجویز کرنا قانون نافذ کرنے والے اداروں کے لیے ایک امید افزا نیا طریقہ کار ہو سکتا ہے۔ جرائم کی رپورٹس، پولیس ریکارڈ، اور دیگر متعلقہ معلومات جیسے ڈیٹا کا تجزیہ کرکے، الگورتھم ایسے نمونوں اور رجحانات کی نشاندہی کر سکتے ہیں جن کا پتہ لگانا انسانوں کے لیے مشکل ہو سکتا ہے۔ تاہم، جرائم کی روک تھام میں AI کا اطلاق کچھ اہم اخلاقی اور عملی سوالات کو جنم دیتا ہے۔ 

    پیش گوئی کرنے والا پولیسنگ سیاق و سباق

    پیشین گوئی کرنے والی پولیسنگ مقامی جرائم کے اعدادوشمار اور الگورتھم کا استعمال کرتی ہے اس پیشین گوئی کے لیے کہ اگلے جرائم کہاں ہونے کا زیادہ امکان ہے۔ کچھ پیشین گوئی کرنے والے پولیسنگ فراہم کنندگان نے اس ٹیکنالوجی میں مزید ترمیم کی ہے تاکہ زلزلے کے آفٹر شاکس کی پیشن گوئی ان علاقوں کی نشاندہی کی جا سکے جہاں جرائم کو روکنے کے لیے پولیس کو کثرت سے گشت کرنا چاہیے۔ "ہاٹ سپاٹ" کے علاوہ، ٹیک مقامی گرفتاری کے اعداد و شمار کا استعمال کرتے ہوئے اس فرد کی قسم کی شناخت کے لیے استعمال کرتی ہے جس کے جرائم کرنے کا امکان ہے۔ 

    امریکہ میں مقیم پیشن گوئی کرنے والی پولیسنگ سافٹ ویئر فراہم کرنے والی کمپنی Geolitica (پہلے PredPol کے نام سے جانا جاتا تھا)، جس کی ٹیک فی الحال کئی قانون نافذ کرنے والے اداروں کے ذریعہ استعمال کی جا رہی ہے، دعویٰ کرتی ہے کہ انہوں نے رنگین لوگوں کی زیادہ پولیسنگ کو ختم کرنے کے لیے اپنے ڈیٹا سیٹس میں ریس کے اجزاء کو ہٹا دیا ہے۔ تاہم، ٹیک ویب سائٹ Gizmodo اور ریسرچ آرگنائزیشن The Citizen Lab کی طرف سے کئے گئے کچھ آزاد مطالعات سے پتا چلا ہے کہ الگورتھم دراصل کمزور کمیونٹیز کے خلاف تعصبات کو تقویت دیتے ہیں۔

    مثال کے طور پر، ایک پولیس پروگرام جس نے یہ اندازہ لگانے کے لیے الگورتھم کا استعمال کیا کہ کون پرتشدد بندوق سے متعلق جرائم میں ملوث ہونے کے خطرے سے دوچار ہے، اس کے بعد تنقید کا سامنا کرنا پڑا جب یہ انکشاف ہوا کہ سب سے زیادہ خطرے والے اسکور والے 85 فیصد افریقی امریکی مرد تھے، کچھ کے ساتھ۔ کوئی سابقہ ​​پرتشدد مجرمانہ ریکارڈ نہیں ہے۔ سٹریٹیجک سبجیکٹ لسٹ کہلانے والا یہ پروگرام 2017 میں اس وقت زیر غور آیا جب شکاگو سن ٹائمز نے فہرست کا ڈیٹا بیس حاصل کیا اور شائع کیا۔ یہ واقعہ قانون نافذ کرنے والے اداروں میں AI کے استعمال میں تعصب کے امکانات اور ان نظاموں کو نافذ کرنے سے پہلے ممکنہ خطرات اور نتائج پر غور کرنے کی اہمیت کو اجاگر کرتا ہے۔

    خلل ڈالنے والا اثر

    پیشن گوئی کرنے والی پولیسنگ کے کچھ فوائد ہیں اگر صحیح طریقے سے کیا جائے۔ جرائم کی روک تھام ایک بڑا فائدہ ہے، جیسا کہ لاس اینجلس پولیس ڈیپارٹمنٹ نے تصدیق کی ہے، جس نے کہا کہ ان کے الگورتھم کے نتیجے میں نشاندہی شدہ ہاٹ سپاٹ کے اندر چوری کی وارداتوں میں 19 فیصد کمی واقع ہوئی ہے۔ ایک اور فائدہ نمبر پر مبنی فیصلہ سازی ہے، جہاں ڈیٹا پیٹرن کا حکم دیتا ہے، انسانی تعصبات نہیں۔ 

    تاہم، ناقدین اس بات پر زور دیتے ہیں کہ چونکہ یہ ڈیٹا سیٹس مقامی پولیس کے محکموں سے حاصل کیے گئے ہیں، جن میں رنگ برنگے لوگوں (خاص طور پر افریقی نژاد امریکیوں اور لاطینی امریکیوں) کو گرفتار کرنے کی تاریخ تھی، اس لیے یہ نمونے صرف ان کمیونٹیز کے خلاف موجودہ تعصبات کو نمایاں کرتے ہیں۔ جیولٹیکا اور متعدد قانون نافذ کرنے والی ایجنسیوں کے ڈیٹا کا استعمال کرتے ہوئے گیزموڈو کی تحقیق کے مطابق، جیولیٹیکا کی پیشین گوئیاں سیاہ اور لاطینی برادریوں کو زیادہ پولیسنگ اور شناخت کرنے کے حقیقی زندگی کے نمونوں کی نقل کرتی ہیں، یہاں تک کہ ان گروہوں کے افراد جن کی گرفتاری کا کوئی ریکارڈ نہیں ہے۔ 

    شہری حقوق کی تنظیموں نے مناسب گورننس اور ریگولیٹری پالیسیوں کے بغیر پیشن گوئی کی پولیسنگ کے بڑھتے ہوئے استعمال پر تشویش کا اظہار کیا ہے۔ کچھ لوگوں نے دلیل دی ہے کہ ان الگورتھم کے پیچھے "گندے ڈیٹا" (بدعنوانی اور غیر قانونی طریقوں سے حاصل کیے گئے اعداد و شمار) استعمال کیے جا رہے ہیں، اور ان کو استعمال کرنے والی ایجنسیاں ان تعصبات کو "ٹیک واشنگ" کے پیچھے چھپا رہی ہیں (دعوی کرتے ہوئے کہ یہ ٹیکنالوجی محض اس لیے مقصد ہے کہ کوئی انسانی مداخلت)۔

    پیش گوئی کرنے والی پولیسنگ کو درپیش ایک اور تنقید یہ ہے کہ عوام کے لیے یہ سمجھنا اکثر مشکل ہوتا ہے کہ یہ الگورتھم کیسے کام کرتے ہیں۔ شفافیت کی یہ کمی قانون نافذ کرنے والے اداروں کو ان فیصلوں کے لیے جوابدہ ٹھہرانا مشکل بنا سکتی ہے جو وہ ان نظاموں کی پیشین گوئیوں کی بنیاد پر کرتے ہیں۔ اسی مناسبت سے، انسانی حقوق کی بہت سی تنظیمیں پیش گوئی کرنے والی پولیس ٹیکنالوجیز، خاص طور پر چہرے کی شناخت کرنے والی ٹیکنالوجی پر پابندی کا مطالبہ کر رہی ہیں۔ 

    پیش گوئی کرنے والی پولیسنگ کے مضمرات

    پیش گوئی کرنے والی پولیسنگ کے وسیع مضمرات میں شامل ہو سکتے ہیں:

    • شہری حقوق اور پسماندہ گروہ پیش گوئی کرنے والی پولیسنگ کے وسیع پیمانے پر استعمال کے خلاف لابنگ اور پیچھے ہٹ رہے ہیں، خاص طور پر رنگین برادریوں میں۔
    • حکومت پر ایک نگرانی کی پالیسی یا محکمے کو نافذ کرنے کے لیے دباؤ ڈالا جائے تاکہ پیشن گوئی کرنے والی پولیسنگ کے استعمال کو محدود کیا جا سکے۔ مستقبل کی قانون سازی پولیس ایجنسیوں کو حکومت کی طرف سے منظور شدہ تیسرے فریقوں سے تعصب سے پاک شہری پروفائلنگ ڈیٹا کو ان کے متعلقہ پیش گوئی کرنے والے پولیسنگ الگورتھم کی تربیت کے لیے استعمال کرنے پر مجبور کر سکتی ہے۔
    • دنیا بھر میں مزید قانون نافذ کرنے والی ایجنسیاں اپنی گشتی حکمت عملیوں کی تکمیل کے لیے پیشین گوئی کرنے والی پولیسنگ کی کسی نہ کسی شکل پر انحصار کرتی ہیں۔
    • آمرانہ حکومتیں شہریوں کے احتجاج اور دیگر عوامی پریشانیوں کی پیشین گوئی اور روک تھام کے لیے ان الگورتھم کے ترمیم شدہ ورژن استعمال کرتی ہیں۔
    • مزید ممالک عوام کے بڑھتے ہوئے دباؤ کے تحت اپنے قانون نافذ کرنے والے اداروں میں چہرے کی شناخت کی ٹیکنالوجیز پر پابندی لگا رہے ہیں۔
    • الگورتھم کے غلط استعمال کی وجہ سے پولیس ایجنسیوں کے خلاف مقدمات میں اضافہ جس کی وجہ سے غیر قانونی یا غلط گرفتاریاں ہوئیں۔

    غور کرنے کے لیے سوالات۔

    • کیا آپ کے خیال میں پیشن گوئی کرنے والی پولیسنگ کا استعمال کیا جانا چاہیے؟
    • آپ کے خیال میں پیشن گوئی کرنے والے پولیسنگ الگورتھم انصاف کے نفاذ کے طریقہ کار کو کیسے بدلیں گے؟