預測性警務:預防犯罪還是強化偏見?

圖片來源:
圖片來源
iStock

預測性警務:預防犯罪還是強化偏見?

預測性警務:預防犯罪還是強化偏見?

副標題文字
算法現在被用來預測下一步可能發生犯罪的地點,但是數據是否可以保持客觀?
    • 作者:
    • 作者姓名
      量子運行遠見
    • 2023 年 5 月 25 日

    使用人工智能 (AI) 系統來識別犯罪模式並提出乾預方案以防止未來的犯罪活動對於執法機構來說可能是一種很有前途的新方法。 通過分析犯罪報告、警察記錄和其他相關信息等數據,算法可以識別人類可能難以察覺的模式和趨勢。 然而,人工智能在預防犯罪中的應用引發了一些重要的倫理和實踐問題。 

    預測性警務環境

    預測性警務使用當地的犯罪統計數據和算法來預測接下來最有可能發生犯罪的地方。 一些預測性警務提供商進一步改進了這項技術,以預測地震餘震,以查明警察應經常巡邏以阻止犯罪的區域。 除了“熱點”之外,該技術還使用本地逮捕數據來識別可能犯罪的個人類型。 

    總部位於美國的預測警務軟件提供商 Geolitica(以前稱為 PredPol),其技術目前已被多個執法實體使用,聲稱他們已將種族成分刪除到他們的數據集中,以消除對有色人種的過度監管。 然而,科技網站 Gizmodo 和研究機構 The Citizen Lab 進行的一些獨立研究發現,這些算法實際上強化了對弱勢群體的偏見。

    例如,一個使用算法來預測誰有可能捲入與槍支有關的暴力犯罪的警察計劃在被揭露被確定為風險得分最高的人中有 85% 是非洲裔美國男性後遭到批評。以前沒有暴力犯罪記錄。 2017 年,當芝加哥太陽時報獲得併發布了該列表的數據庫時,該項目被稱為戰略主題列表,受到了審查。 這一事件凸顯了在執法中使用人工智能可能存在的偏見,以及在實施這些系統之前仔細考慮潛在風險和後果的重要性。

    破壞性影響

    如果做得好,預測性警務會帶來一些好處。 正如洛杉磯警察局證實的那樣,預防犯罪是一個主要優勢,他們表示他們的算法使指定熱點內的入室盜竊案減少了 19%。 另一個好處是基於數字的決策,數據決定模式,而不是人為偏見。 

    然而,批評者強調,由於這些數據集是從當地警察部門獲得的,這些部門有逮捕更多有色人種(尤其是非裔美國人和拉丁美洲人)的歷史,因此這些模式只是突出了對這些社區的現有偏見。 根據 Gizmodo 使用 Geolitica 和幾個執法機構的數據進行的研究,Geolitica 的預測模仿了過度監管和識別黑人和拉丁裔社區的現實生活模式,甚至是這些群體中逮捕記錄為零的個人。 

    民權組織對在沒有適當治理和監管政策的情況下越來越多地使用預測性警務表示擔憂。 一些人認為,這些算法背後使用了“臟數據”(通過腐敗和非法行為獲得的數據),使用它們的機構將這些偏見隱藏在“技術清洗”(聲稱該技術是客觀的,只是因為沒有人為乾預)。

    預測性警務面臨的另一個批評是,公眾通常很難理解這些算法是如何工作的。 這種透明度的缺乏使得執法機構難以對他們根據這些系統的預測做出的決定負責。 因此,許多人權組織呼籲禁止預測警察技術,特別是面部識別技術。 

    預測性警務的影響

    預測性警務的更廣泛影響可能包括:

    • 民權和邊緣化群體遊說和反對廣泛使用預測性警務,尤其是在有色人種社區內。
    • 要求政府實施監督政策或部門以限制預測性警務的使用方式的壓力。 未來的立法可能會迫使警察機構使用來自政府批准的第三方的無偏見公民分析數據來訓練他們各自的預測性警務算法。
    • 全球越來越多的執法機構依靠某種形式的預測性警務來補充他們的巡邏策略。
    • 威權政府使用這些算法的修改版本來預測和防止公民抗議和其他公共騷亂。
    • 在公眾的壓力越來越大的情況下,越來越多的國家在其執法機構中禁止面部識別技術。
    • 因濫用導致非法或錯誤逮捕的算法而對警察機構提起的訴訟有所增加。

    需要考慮的問題

    • 您認為應該使用預測性警務嗎?
    • 您認為預測性警務算法將如何改變司法的實施方式?

    洞察參考

    此見解引用了以下流行和機構鏈接:

    布倫南司法中心 預測性警務解釋