Pristrasnost umjetne inteligencije: Mašine nisu objektivne kao što smo se nadali
Pristrasnost umjetne inteligencije: Mašine nisu objektivne kao što smo se nadali
Pristrasnost umjetne inteligencije: Mašine nisu objektivne kao što smo se nadali
- Autor:
- Februar 8, 2022
Sažetak uvida
Iako tehnologije vođene podacima obećavaju njegovanje pravednog društva, one često odražavaju iste predrasude koje ljudi gaje, što dovodi do potencijalnih nepravdi. Na primjer, predrasude u sistemima umjetne inteligencije (AI) mogu nenamjerno pogoršati štetne stereotipe. Međutim, u toku su napori da se sistemi veštačke inteligencije učine pravednijim, iako to postavlja složena pitanja o ravnoteži između korisnosti i pravednosti, kao i potrebe za promišljenom regulacijom i raznovrsnošću u tehničkim timovima.
Opšti kontekst pristrasnosti AI
Nadamo se da će tehnologije vođene podacima pomoći čovječanstvu da uspostavi društvo u kojem je pravičnost norma za sve. Međutim, trenutna stvarnost daje drugačiju sliku. Mnoge predrasude koje ljudi imaju, a koje su dovele do nepravde u prošlosti, sada se ogledaju u algoritmima koji upravljaju našim digitalnim svijetom. Ove predrasude u sistemima veštačke inteligencije često potiču od predrasuda pojedinaca koji razvijaju ove sisteme, i te pristrasnosti često prodiru u njihov rad.
Uzmimo, na primjer, projekat iz 2012. godine poznat kao ImageNet, koji je nastojao prikupiti oznake za slike za obuku sistema mašinskog učenja. Velika neuronska mreža obučena na ovim podacima je kasnije bila u stanju da identifikuje objekte sa impresivnom tačnošću. Međutim, nakon detaljnijeg pregleda, istraživači su otkrili pristranosti skrivene unutar ImageNet podataka. U jednom konkretnom slučaju, algoritam obučen na ovim podacima bio je pristrasan prema pretpostavci da su svi softverski programeri bijelci.
Ova pristrasnost bi potencijalno mogla dovesti do toga da žene budu zanemarene za takve uloge kada je proces zapošljavanja automatiziran. Predrasude su se našle u skupovima podataka jer su pojedinačne oznake koje su dodavale slikama "žene" uključivale dodatnu oznaku koja se sastojala od pogrdnog izraza. Ovaj primjer ilustruje kako predrasude, bilo namjerne ili nenamjerne, mogu infiltrirati čak iu najsofisticiranije AI sisteme, potencijalno održavajući štetne stereotipe i nejednakosti.
Ometajući uticaj
Istraživači iz raznih javnih i privatnih organizacija pokrenuli su napore za rješavanje problema pristrasnosti u podacima i algoritmima. U slučaju ImageNet projekta, na primjer, korišten je crowdsourcing da bi se identificirali i eliminirali termini označavanja koji bacaju pogrdno svjetlo na određene slike. Ove mjere su pokazale da je zaista moguće rekonfigurirati AI sisteme kako bi bili pravedniji.
Međutim, neki stručnjaci tvrde da bi uklanjanje pristrasnosti moglo potencijalno učiniti skup podataka manje efikasnim, posebno kada je u igri višestruka pristrasnost. Skup podataka bez određenih predrasuda može završiti bez dovoljno informacija za efikasnu upotrebu. Postavlja se pitanje kako bi izgledao istinski raznolik skup slikovnih podataka i kako bi se mogao koristiti bez ugrožavanja njegove korisnosti.
Ovaj trend naglašava potrebu za promišljenim pristupom korištenju AI i tehnologija vođenih podacima. Za kompanije to može značiti ulaganje u alate za otkrivanje predrasuda i promoviranje raznolikosti u tehnološkim timovima. Za vlade bi to moglo uključivati implementaciju propisa kako bi se osigurala poštena upotreba AI.
Implikacije pristrasnosti AI
Šire implikacije pristranosti AI mogu uključivati:
- Organizacije su proaktivne u osiguravanju pravičnosti i nediskriminacije dok koriste AI za poboljšanje produktivnosti i učinka.
- Imati etičara AI u razvojnim timovima za otkrivanje i ublažavanje etičkih rizika rano u projektu.
- Dizajniranje AI proizvoda s jasnom na umu faktore raznolikosti kao što su spol, rasa, klasa i kultura.
- Dobijanje predstavnika različitih grupa koje će koristiti AI proizvod kompanije da ga testiraju prije nego što bude objavljen.
- Različite javne usluge su ograničene određenim članovima javnosti.
- Određeni članovi javnosti nisu u mogućnosti da pristupe ili se kvalificiraju za određene prilike za posao.
- Agencije za provođenje zakona i profesionalci nepravedno ciljaju određene članove društva više od drugih.
Pitanja koja treba razmotriti
- Jeste li optimistični da će automatizirano donošenje odluka biti pravedno u budućnosti?
- Šta je sa donošenjem AI odluka najviše nervoznim?
Insight reference
Za ovaj uvid referencirane su sljedeće popularne i institucionalne veze: