Bodovanje ranjivih ljudi: Kada se tehnologija okrene protiv zajednica

KREDIT ZA SLIKU:
Image credit
iStock

Bodovanje ranjivih ljudi: Kada se tehnologija okrene protiv zajednica

Bodovanje ranjivih ljudi: Kada se tehnologija okrene protiv zajednica

Tekst podnaslova
Umjetna inteligencija napreduje, ali se spotiče oko predrasuda, potencijalno pogoršavajući ekonomske nejednakosti.
    • Autor:
    • Ime autora
      Quantumrun Foresight
    • Februar 14, 2024

    Sažetak uvida

    Sve veća uloga umjetne inteligencije (AI) u sektorima kao što su zapošljavanje i zdravstvena zaštita mogla bi izložiti ranjive zajednice pristrasnosti i neetičkim praksama bodovanja. Sve veće oslanjanje na AI u kritičnim oblastima naglašava potrebu za različitim podacima i strogim propisima kako bi se spriječila diskriminacija. Ovaj trend naglašava rastuću potražnju za transparentnošću, pravednošću u AI aplikacijama i promjenom javnog i vladinog pristupa upravljanju tehnologijom.

    Bodovanje konteksta ranjivih ljudi

    Posljednjih godina AI se sve više koristi u različitim sektorima, posebno u zapošljavanju, zdravstvu i policiji. Do 2020. godine, više od polovine menadžera za zapošljavanje u SAD-u je uključivalo algoritamski softver i AI alate u zapošljavanje, što je trend koji je nastavio rasti. Algoritmi koji pokreću ove platforme i sisteme koriste različite tipove podataka, uključujući eksplicitne informacije iz profila, implicitne podatke zaključene iz radnji korisnika i analitiku ponašanja. Međutim, ova složena interakcija podataka i algoritamskog odlučivanja uvodi rizik od pristrasnosti. Na primjer, žene često nedovoljno predstavljaju svoje vještine u životopisima, a specifičan rodno određen jezik može uticati na to kako algoritam procjenjuje podobnost kandidata. 

    U zdravstvu, ako podaci koji se koriste za obuku ovih algoritama nisu različiti, to može dovesti do pogrešne dijagnoze ili neodgovarajućih preporuka za liječenje, posebno za nedovoljno zastupljene grupe. Još jedna briga je privatnost i sigurnost podataka, jer su zdravstveni podaci izuzetno osjetljivi. U radu policije, AI se koristi u različitim oblicima, kao što su prediktivni policijski algoritmi, tehnologija za prepoznavanje lica i sistemi nadzora. Nekoliko studija je naglasilo da se ljudi u boji često pogrešno identifikuju ovim sistemima za prepoznavanje lica.

    Regulatorni pejzaž se razvija kako bi se suočio sa ovim izazovima. Zakonodavni napori, poput Zakona o algoritamskoj odgovornosti iz 2022. godine, imaju za cilj ublažavanje algoritamske pristranosti zahtijevajući od kompanija da sprovode procjenu uticaja AI sistema u kritičnim oblastima donošenja odluka. Međutim, rješavanje pitanja pristrasnosti u procesima zapošljavanja vođenim umjetnom inteligencijom zahtijeva usklađene napore više dionika. Tehnološki programeri moraju osigurati transparentnost i pravičnost u svojim algoritmima, kompanije treba da priznaju i riješe ograničenja ovih alata, a kreatori politike moraju provoditi propise koji štite od diskriminatornih praksi. 

    Ometajući uticaj

    Dugoročni uticaj bodovanja ranjivih ljudi, uglavnom kroz sisteme kao što su kreditno bodovanje i algoritamsko zapošljavanje, može značajno uticati na društvenu mobilnost i ekonomski disparitet. Kreditni rezultati, neophodni za određivanje finansijske kredibilnosti, često stavljaju u nepovoljniji položaj ljude iz nižeg socio-ekonomskog porijekla. Vremenom, ovo nastavlja ciklus u kojem se ljudi u nepovoljnom položaju suočavaju sa daljim izazovima u pristupu osnovnim finansijskim uslugama.

    Uticaj pristrasnih sistema bodovanja može dovesti do šire društvene isključenosti, što utiče na stanovanje, zapošljavanje i pristup osnovnim uslugama. Ljudima sa nižim rezultatima ili onima koji su nepravedno ocijenjeni pristrasnim algoritmima može biti teško osigurati smještaj ili posao, pojačavajući postojeće društvene nejednakosti. Ovaj scenario naglašava potrebu za pravednijim sistemima bodovanja koji uzimaju u obzir širi kontekst života pojedinca umjesto da se oslanjaju samo na uske podatke.

    Kompanije, posebno one u finansijskom sektoru i sektoru zapošljavanja, mogu nenamjerno doprinijeti društvenom raslojavanju oslanjajući se na ove pristrasne sisteme. U međuvremenu, vlade se suočavaju s izazovom osiguravanja da propisi idu u korak s tehnološkim napretkom kako bi zaštitili ugroženo stanovništvo. Oni moraju promovirati transparentnost i odgovornost u sistemima bodovanja ili rizikovati da građani izgube povjerenje u vladine institucije i programe.

    Implikacije bodovanja ranjivih ljudi

    Šire implikacije bodovanja ranjivih ljudi mogu uključivati: 

    • Poboljšani modeli kreditnog bodovanja koji uključuju alternativne podatke, što dovodi do poboljšanog pristupa finansijskim proizvodima za zajednice koje su u prošlosti bile slabo opsluživane.
    • Vlade primjenjuju strožije propise o alatima za zapošljavanje zasnovanim na umjetnoj inteligenciji, osiguravajući pravednije prakse zapošljavanja u svim industrijama.
    • Povećana svijest javnosti i zagovaranje protiv pristrasne umjetne inteligencije, što rezultira transparentnijim i odgovornijim tehnološkim primjenama.
    • Kompanije revidiraju svoje strategije zapošljavanja, potencijalno smanjujući nesvjesnu pristrasnost i promovirajući raznolikost na radnom mjestu.
    • Razvoj novih industrija i radnih uloga fokusiranih na etičku AI i reviziju algoritama, doprinoseći diversifikaciji tržišta rada.
    • Povećano ulaganje u istraživanje umjetne inteligencije kako bi se riješila pristrasnost i pravičnost, pokrećući tehnološki napredak koji koristi širem spektru društva.

    Pitanja koja treba razmotriti

    • Kako bi integracija raznovrsnijih skupova podataka u AI algoritme preoblikovala naše razumijevanje društvene pravednosti i jednakosti?
    • Kako pojedinci mogu aktivno doprinijeti ili utjecati na razvoj etičkih praksi umjetne inteligencije u svom svakodnevnom životu i na radnim mjestima?