Artificiell intelligens bias: Maskiner är inte så objektiva som vi hoppades

BILDKREDIT:
Bild kredit
iStock

Artificiell intelligens bias: Maskiner är inte så objektiva som vi hoppades

Artificiell intelligens bias: Maskiner är inte så objektiva som vi hoppades

Underrubrik text
Alla är överens om att AI bör vara opartisk, men att ta bort fördomar visar sig vara problematiskt
    • Författare:
    • författarnamn
      Quantumrun Framsyn
    • Februari 8, 2022

    Insiktssammanfattning

    Även om datadrivna tekniker har ett löfte om att främja ett rättvist samhälle, återspeglar de ofta samma fördomar som människor hyser, vilket leder till potentiella orättvisor. Till exempel kan fördomar i system med artificiell intelligens (AI) oavsiktligt förvärra skadliga stereotyper. Men ansträngningar pågår för att göra AI-system mer rättvisa, även om detta väcker komplexa frågor om balansen mellan nytta och rättvisa, och behovet av genomtänkt reglering och mångfald i tekniska team.

    AI-bias generellt sammanhang

    Förhoppningen är att teknik som drivs av data kommer att hjälpa mänskligheten att etablera ett samhälle där rättvisa är normen för alla. Den nuvarande verkligheten målar dock upp en annan bild. Många av de fördomar som människor har, som har lett till orättvisor i det förflutna, återspeglas nu i de algoritmer som styr vår digitala värld. Dessa fördomar i AI-system härrör ofta från fördomar hos de individer som utvecklar dessa system, och dessa fördomar sipprar ofta in i deras arbete.

    Ta till exempel ett projekt 2012 känt som ImageNet, som försökte crowdsource märkning av bilder för utbildning av maskininlärningssystem. Ett stort neuralt nätverk tränat på dessa data kunde därefter identifiera objekt med imponerande noggrannhet. Men vid närmare inspektion upptäckte forskare fördomar gömda i ImageNet-data. I ett särskilt fall var en algoritm som tränats på dessa data partisk mot antagandet att alla programvaruprogrammerare är vita män.

    Denna partiskhet kan potentiellt leda till att kvinnor förbises för sådana roller när anställningsprocessen är automatiserad. Fördomarna hittade sin väg in i datamängderna eftersom individen som lade till etiketter på bilder av "kvinna" inkluderade en ytterligare etikett som bestod av en nedsättande term. Det här exemplet illustrerar hur fördomar, vare sig de är avsiktliga eller oavsiktliga, kan infiltrera även de mest sofistikerade AI-systemen, vilket potentiellt kan upprätthålla skadliga stereotyper och ojämlikheter.

    Störande inverkan 

    Ansträngningar för att ta itu med bias i data och algoritmer har initierats av forskare från olika offentliga och privata organisationer. I fallet med ImageNet-projektet, till exempel, användes crowdsourcing för att identifiera och eliminera märkningstermer som kastade ett nedsättande ljus på vissa bilder. Dessa åtgärder visade att det verkligen är möjligt att omkonfigurera AI-system för att vara mer rättvisa.

    Vissa experter hävdar dock att borttagning av bias potentiellt kan göra en datamängd mindre effektiv, särskilt när flera bias är på gång. En datamängd utan vissa fördomar kan i slutändan sakna tillräcklig information för effektiv användning. Det väcker frågan om hur en verkligt mångsidig bilddatauppsättning skulle se ut och hur den skulle kunna användas utan att kompromissa med dess användbarhet.

    Denna trend understryker behovet av ett genomtänkt förhållningssätt till användningen av AI och datadriven teknik. För företag kan detta innebära att investera i bias-detection-verktyg och främja mångfald i tekniska team. För regeringar kan det innebära implementering av förordningar för att säkerställa rättvis användning av AI. 

    Implikationer av AI-bias

    Vidare implikationer av AI-bias kan inkludera:

    • Organisationer är proaktiva för att säkerställa rättvisa och icke-diskriminering när de utnyttjar AI för att förbättra produktivitet och prestanda. 
    • Att ha en AI-etiker i utvecklingsteam för att upptäcka och mildra etiska risker tidigt i ett projekt. 
    • Designa AI-produkter med mångfaldsfaktorer som kön, ras, klass och kultur tydligt i åtanke.
    • Få representanter från olika grupper som kommer att använda ett företags AI-produkt för att testa den innan den släpps.
    • Olika offentliga tjänster är begränsade från vissa medlemmar av allmänheten.
    • Vissa medlemmar av allmänheten kan inte få tillgång till eller kvalificera sig för vissa arbetstillfällen.
    • Brottsbekämpande myndigheter och yrkesmän riktar sig orättvist till vissa medlemmar av samhället mer än andra. 

    Frågor att överväga

    • Är du optimistisk om att automatiserat beslutsfattande kommer att vara rättvist i framtiden?
    • Hur är det med AI-beslut som gör dig mest nervös?

    Insiktsreferenser

    Följande populära och institutionella länkar hänvisades till för denna insikt: