Predictive policing: Förebygga brott eller förstärka partiskhet?

BILDKREDIT:
Bild kredit
iStock

Predictive policing: Förebygga brott eller förstärka partiskhet?

Predictive policing: Förebygga brott eller förstärka partiskhet?

Underrubrik text
Algoritmer används nu för att förutsäga var ett brott kan hända härnäst, men kan man lita på att data förblir objektiva?
    • Författare:
    • författarnamn
      Quantumrun Framsyn
    • Maj 25, 2023

    Att använda system för artificiell intelligens (AI) för att identifiera brottsmönster och föreslå ingripandealternativ för att förhindra framtida brottslig verksamhet kan vara en lovande ny metod för brottsbekämpande myndigheter. Genom att analysera data som brottsrapporter, polisregister och annan relevant information kan algoritmer identifiera mönster och trender som kan vara svåra för människor att upptäcka. Tillämpningen av AI i brottsförebyggande syfte väcker dock några viktiga etiska och praktiska frågor. 

    Prediktivt polisiärt sammanhang

    Predictive policing använder lokal brottsstatistik och algoritmer för att förutsäga var brott är mest sannolikt att inträffa härnäst. Vissa leverantörer av förutsägande polisarbete har ytterligare modifierat denna teknik för att förutsäga efterskalv efter jordbävningar för att lokalisera områden där polisen ofta bör patrullera för att avskräcka brott. Förutom "hotspots" använder tekniken lokal arresteringsdata för att identifiera typen av individ som sannolikt kommer att begå brott. 

    USA-baserade programvaruleverantören Geolitica (tidigare känd som PredPol), vars teknik för närvarande används av flera brottsbekämpande myndigheter, hävdar att de har tagit bort raskomponenten i sina datauppsättningar för att eliminera överpolisering av färgade personer. Vissa oberoende studier utförda av den tekniska webbplatsen Gizmodo och forskningsorganisationen The Citizen Lab fann dock att algoritmerna faktiskt förstärkte fördomar mot utsatta samhällen.

    Till exempel, ett polisprogram som använde en algoritm för att förutsäga vem som riskerade att bli inblandad i våldsam vapenrelaterad brottslighet fick kritik efter att det avslöjades att 85 procent av de som identifierats ha högst riskpoäng var afroamerikanska män, vissa med inget tidigare våldsbrottsregister. Programmet, kallat Strategic Subject List, kom under granskning 2017 när Chicago Sun-Times skaffade och publicerade en databas med listan. Denna incident belyser potentialen för partiskhet i att använda AI inom brottsbekämpning och vikten av att noggrant överväga de potentiella riskerna och konsekvenserna innan dessa system implementeras.

    Störande inverkan

    Det finns vissa fördelar med förutseende polisarbete om det görs rätt. Brottsförebyggande är en stor fördel, vilket bekräftades av Los Angeles Police Department, som sa att deras algoritmer resulterade i en 19-procentig minskning av inbrotten inom de angivna hotspots. En annan fördel är sifferbaserat beslutsfattande, där data dikterar mönster, inte mänskliga fördomar. 

    Men kritiker betonar att eftersom dessa datauppsättningar erhålls från lokala polisavdelningar, som hade en historia av att arrestera fler färgade personer (särskilt afroamerikaner och latinamerikaner), belyser mönstren bara existerande fördomar mot dessa samhällen. Enligt Gizmodos forskning med hjälp av data från Geolitica och flera brottsbekämpande myndigheter, efterliknar Geoliticas förutsägelser verkliga mönster av överpolis och identifiering av svarta och latinosamhällen, till och med individer inom dessa grupper med noll arresteringsregister. 

    Organisationer för medborgerliga rättigheter har uttryckt oro över den ökande användningen av förutsägande polisarbete utan korrekt styrning och regelverk. Vissa har hävdat att "smutsiga data" (siffror som erhållits genom korrupta och olagliga metoder) används bakom dessa algoritmer, och byråer som använder dem gömmer dessa fördomar bakom "tech-washing" (påstår att denna teknik är objektiv helt enkelt för att det inte finns någon mänskligt ingripande).

    En annan kritik mot predictive policing är att det ofta är svårt för allmänheten att förstå hur dessa algoritmer fungerar. Denna brist på transparens kan göra det svårt att hålla brottsbekämpande myndigheter ansvariga för de beslut de fattar baserat på dessa systems förutsägelser. Följaktligen efterlyser många människorättsorganisationer ett förbud mot förutsägande polisteknik, särskilt teknik för ansiktsigenkänning. 

    Konsekvenser av prediktiv polisverksamhet

    Vidare konsekvenser av prediktiv polisverksamhet kan inkludera:

    • Medborgerliga rättigheter och marginaliserade grupper som lobbar och driver tillbaka mot den utbredda användningen av förutsägande polisarbete, särskilt inom färgade samhällen.
    • Press på regeringen att införa en tillsynspolicy eller avdelning för att begränsa hur förutsägande polisarbete används. Framtida lagstiftning kan tvinga polismyndigheter att använda fördomsfri medborgarprofileringsdata från statligt godkända tredje parter för att träna sina respektive prediktiva polisalgoritmer.
    • Fler brottsbekämpande myndigheter över hela världen förlitar sig på någon form av förutsägande polisverksamhet för att komplettera sina patrulleringsstrategier.
    • Auktoritära regeringar använder modifierade versioner av dessa algoritmer för att förutsäga och förhindra medborgarprotester och andra offentliga störningar.
    • Fler länder förbjuder ansiktsigenkänningsteknik i sina brottsbekämpande myndigheter under ökande press från allmänheten.
    • Ökade stämningar mot polismyndigheter för missbruk av algoritmer som ledde till olagliga eller felaktiga gripanden.

    Frågor att överväga

    • Tycker du att förutseende polisarbete bör användas?
    • Hur tror du att förutsägande polisiära algoritmer kommer att förändra hur rättvisa implementeras?

    Insiktsreferenser

    Följande populära och institutionella länkar hänvisades till för denna insikt:

    Brennan centrum för rättvisa Predictive Policing Explained