Kunstig intelligens bias: Maskiner er ikke så objektive, som vi håbede

BILLEDKREDIT:
Image credit
iStock

Kunstig intelligens bias: Maskiner er ikke så objektive, som vi håbede

Kunstig intelligens bias: Maskiner er ikke så objektive, som vi håbede

Underoverskriftstekst
Alle er enige om, at kunstig intelligens skal være upartisk, men at fjerne skævheder viser sig at være problematisk
    • Forfatter:
    • Forfatter navn
      Quantumrun Foresight
    • Februar 8, 2022

    Oversigt over indsigt

    Mens datadrevne teknologier har løftet om at fremme et retfærdigt samfund, afspejler de ofte de samme skævheder, som mennesker har, hvilket fører til potentielle uretfærdigheder. For eksempel kan skævheder i systemer med kunstig intelligens (AI) utilsigtet forværre skadelige stereotyper. Der er dog bestræbelser på at gøre AI-systemer mere retfærdige, selvom dette rejser komplekse spørgsmål om balancen mellem nytte og retfærdighed og behovet for gennemtænkt regulering og mangfoldighed i tech-teams.

    AI bias generel kontekst

    Håbet er, at teknologier drevet af data vil hjælpe menneskeheden med at etablere et samfund, hvor retfærdighed er normen for alle. Den nuværende virkelighed tegner dog et andet billede. Mange af de skævheder, som mennesker har, som har ført til uretfærdigheder i fortiden, bliver nu afspejlet i de algoritmer, der styrer vores digitale verden. Disse skævheder i AI-systemer stammer ofte fra fordomme hos de personer, der udvikler disse systemer, og disse skævheder trænger ofte ind i deres arbejde.

    Tag for eksempel et projekt i 2012 kendt som ImageNet, som forsøgte at crowdsource mærkning af billeder til træning af maskinlæringssystemer. Et stort neuralt netværk trænet på disse data var efterfølgende i stand til at identificere objekter med imponerende nøjagtighed. Men ved nærmere eftersyn opdagede forskere skævheder skjult i ImageNet-dataene. I et bestemt tilfælde var en algoritme trænet på disse data forudindtaget i retning af antagelsen om, at alle softwareprogrammører er hvide mænd.

    Denne skævhed kan potentielt resultere i, at kvinder bliver overset til sådanne roller, når ansættelsesprocessen er automatiseret. Forstyrrelserne fandt vej ind i datasættene, fordi den enkelte, der tilføjede etiketter til billeder af "kvinde", inkluderede en yderligere etiket, der bestod af et nedsættende udtryk. Dette eksempel illustrerer, hvordan skævheder, uanset om de er bevidste eller utilsigtede, kan infiltrere selv de mest sofistikerede AI-systemer og potentielt opretholde skadelige stereotyper og uligheder.

    Forstyrrende påvirkning 

    Bestræbelser på at adressere skævhed i data og algoritmer er blevet iværksat af forskere på tværs af forskellige offentlige og private organisationer. I tilfældet med ImageNet-projektet blev der f.eks. brugt crowdsourcing til at identificere og eliminere mærkningsudtryk, der kaster et nedsættende lys på visse billeder. Disse tiltag viste, at det faktisk er muligt at omkonfigurere AI-systemer til at være mere retfærdige.

    Nogle eksperter hævder dog, at fjernelse af bias potentielt kan gøre et datasæt mindre effektivt, især når flere bias er på spil. Et datasæt fritaget for visse skævheder kan ende med at mangle tilstrækkelig information til effektiv brug. Det rejser spørgsmålet om, hvordan et virkelig forskelligartet billeddatasæt ville se ud, og hvordan det kunne bruges uden at gå på kompromis med dets anvendelighed.

    Denne tendens understreger behovet for en gennemtænkt tilgang til brugen af ​​kunstig intelligens og datadrevne teknologier. For virksomheder kan dette betyde at investere i bias-detection-værktøjer og fremme diversitet i tech-teams. For regeringer kan det indebære implementering af regler for at sikre fair brug af kunstig intelligens. 

    Implikationer af AI bias

    Bredere implikationer af AI-bias kan omfatte:

    • Organisationer, der er proaktive med at sikre retfærdighed og ikke-diskrimination, da de udnytter AI til at forbedre produktivitet og ydeevne. 
    • At have en AI-etiker i udviklingsteams til at opdage og afbøde etiske risici tidligt i et projekt. 
    • Design af AI-produkter med mangfoldighedsfaktorer som køn, race, klasse og kultur klart for øje.
    • Få repræsentanter fra de forskellige grupper, der vil bruge en virksomheds AI-produkt, til at teste det, før det udgives.
    • Forskellige offentlige tjenester er begrænset fra visse medlemmer af offentligheden.
    • Visse medlemmer af offentligheden er ude af stand til at få adgang til eller kvalificere sig til bestemte jobmuligheder.
    • Retshåndhævende myndigheder og fagfolk retter sig uretfærdigt mod visse medlemmer af samfundet mere end andre. 

    Spørgsmål at overveje

    • Er du optimistisk om, at automatiseret beslutningstagning vil være retfærdig i fremtiden?
    • Hvad med AI-beslutningstagning gør dig mest nervøs?

    Indsigtsreferencer

    Følgende populære og institutionelle links blev refereret til denne indsigt: