Artificial intelligence bias: Maskiner er ikke så objektive som vi håpet

BILDEKREDITT:
Bilde kreditt
iStock

Artificial intelligence bias: Maskiner er ikke så objektive som vi håpet

Artificial intelligence bias: Maskiner er ikke så objektive som vi håpet

Underoverskriftstekst
Alle er enige om at AI bør være objektiv, men å fjerne skjevheter viser seg å være problematisk
    • Forfatter:
    • forfatternavn
      Quantumrun Foresight
    • Februar 8, 2022

    Oppsummering av innsikt

    Mens datadrevne teknologier har løftet om å fremme et rettferdig samfunn, gjenspeiler de ofte de samme skjevhetene som mennesker har, og fører til potensielle urettferdigheter. For eksempel kan skjevheter i systemer med kunstig intelligens (AI) utilsiktet forverre skadelige stereotyper. Det pågår imidlertid innsats for å gjøre AI-systemer mer rettferdige, selv om dette reiser komplekse spørsmål om balansen mellom nytte og rettferdighet, og behovet for gjennomtenkt regulering og mangfold i teknologiteam.

    AI-bias generell kontekst

    Håpet er at teknologier drevet av data vil hjelpe menneskeheten med å etablere et samfunn der rettferdighet er normen for alle. Den nåværende virkeligheten tegner imidlertid et annet bilde. Mange av skjevhetene som mennesker har, som har ført til urettferdighet tidligere, blir nå speilet i algoritmene som styrer vår digitale verden. Disse skjevhetene i AI-systemer stammer ofte fra fordommer hos individene som utvikler disse systemene, og disse skjevhetene siver ofte inn i arbeidet deres.

    Ta for eksempel et prosjekt i 2012 kjent som ImageNet, som forsøkte å crowdsource merking av bilder for opplæring av maskinlæringssystemer. Et stort nevralt nettverk trent på disse dataene var senere i stand til å identifisere objekter med imponerende nøyaktighet. Men ved nærmere ettersyn oppdaget forskere skjevheter skjult i ImageNet-dataene. I ett spesielt tilfelle var en algoritme trent på disse dataene forutinntatt mot antakelsen om at alle programvareprogrammerere er hvite menn.

    Denne skjevheten kan potensielt føre til at kvinner blir oversett for slike roller når ansettelsesprosessen er automatisert. Forstyrrelsene fant veien inn i datasettene fordi den enkelte som la til etiketter til bilder av "kvinne" inkluderte en ekstra etikett som besto av et nedsettende begrep. Dette eksemplet illustrerer hvordan skjevheter, enten det er tilsiktet eller utilsiktet, kan infiltrere selv de mest sofistikerte AI-systemene, og potensielt opprettholde skadelige stereotyper og ulikheter.

    Forstyrrende påvirkning 

    Forsøk på å adressere skjevheter i data og algoritmer har blitt initiert av forskere på tvers av ulike offentlige og private organisasjoner. I tilfellet med ImageNet-prosjektet, for eksempel, ble crowdsourcing brukt for å identifisere og eliminere merkeord som kaster et nedsettende lys på enkelte bilder. Disse tiltakene viste at det faktisk er mulig å rekonfigurere AI-systemer for å være mer rettferdige.

    Noen eksperter hevder imidlertid at fjerning av skjevheter potensielt kan gjøre et datasett mindre effektivt, spesielt når flere skjevheter er i spill. Et datasett strippet for visse skjevheter kan ende opp med å mangle tilstrekkelig informasjon for effektiv bruk. Det reiser spørsmålet om hvordan et virkelig mangfoldig bildedatasett vil se ut, og hvordan det kan brukes uten å gå på bekostning av nytten.

    Denne trenden understreker behovet for en gjennomtenkt tilnærming til bruken av AI og datadrevne teknologier. For bedrifter kan dette bety å investere i skjevhetsdeteksjonsverktøy og fremme mangfold i tekniske team. For myndigheter kan det innebære implementering av forskrifter for å sikre rettferdig bruk av AI. 

    Implikasjoner av AI-bias

    Større implikasjoner av AI-bias kan omfatte:

    • Organisasjoner som er proaktive for å sikre rettferdighet og ikke-diskriminering når de utnytter AI for å forbedre produktivitet og ytelse. 
    • Å ha en AI-etiker i utviklingsteam for å oppdage og redusere etiske risikoer tidlig i et prosjekt. 
    • Utforme AI-produkter med mangfoldsfaktorer som kjønn, rase, klasse og kultur klart i tankene.
    • Få representanter fra de forskjellige gruppene som skal bruke et selskaps AI-produkt til å teste det før det slippes.
    • Ulike offentlige tjenester er begrenset fra visse medlemmer av offentligheten.
    • Enkelte medlemmer av offentligheten er ute av stand til å få tilgang til eller kvalifisere seg for visse jobbmuligheter.
    • Rettshåndhevende byråer og fagfolk retter seg urettferdig mot enkelte medlemmer av samfunnet mer enn andre. 

    Spørsmål å vurdere

    • Er du optimistisk på at automatisert beslutningstaking vil være rettferdig i fremtiden?
    • Hva med AI-beslutninger gjør deg mest nervøs?

    Innsiktsreferanser

    Følgende populære og institusjonelle lenker ble referert for denne innsikten: