Mākslīgā intelekta aizspriedumi: mašīnas nav tik objektīvas, kā mēs cerējām

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

Mākslīgā intelekta aizspriedumi: mašīnas nav tik objektīvas, kā mēs cerējām

Mākslīgā intelekta aizspriedumi: mašīnas nav tik objektīvas, kā mēs cerējām

Apakšvirsraksta teksts
Visi piekrīt, ka AI jābūt objektīvam, taču aizspriedumu novēršana ir problemātiska
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Februāris 8, 2022

    Ieskata kopsavilkums

    Lai gan uz datiem balstītām tehnoloģijām ir solījums veicināt godīgu sabiedrību, tās bieži vien atspoguļo tās pašas aizspriedumus, kas piemīt cilvēkiem, izraisot iespējamu netaisnību. Piemēram, mākslīgā intelekta (AI) sistēmu aizspriedumi var nejauši pasliktināt kaitīgos stereotipus. Tomēr tiek veikti centieni, lai padarītu AI sistēmas taisnīgākas, lai gan tas rada sarežģītus jautājumus par līdzsvaru starp lietderību un godīgumu, kā arī nepieciešamību pēc pārdomāta regulējuma un daudzveidības tehnoloģiju komandās.

    AI novirzes vispārējais konteksts

    Cerams, ka tehnoloģijas, ko virza dati, palīdzēs cilvēcei izveidot sabiedrību, kurā godīgums ir norma visiem. Tomēr pašreizējā realitāte veido citu ainu. Daudzi cilvēku aizspriedumi, kas pagātnē ir noveduši pie netaisnības, tagad tiek atspoguļoti algoritmos, kas pārvalda mūsu digitālo pasauli. Šīs novirzes AI sistēmās bieži vien izriet no to personu aizspriedumiem, kuri izstrādā šīs sistēmas, un šīs novirzes bieži tiek iekļautas viņu darbā.

    Piemēram, 2012. gadā projektu, kas pazīstams ar nosaukumu ImageNet, kura mērķis bija piesaistīt attēlu marķēšanu mašīnmācības sistēmu apmācībai. Liels neironu tīkls, kas apmācīts uz šiem datiem, pēc tam spēja identificēt objektus ar iespaidīgu precizitāti. Tomēr, rūpīgāk pārbaudot, pētnieki atklāja aizspriedumus, kas paslēpti ImageNet datos. Vienā konkrētā gadījumā algoritms, kas tika apmācīts uz šiem datiem, bija neobjektīvs pieņēmumam, ka visi programmatūras programmētāji ir baltie vīrieši.

    Šī neobjektivitāte var potenciāli novest pie tā, ka sievietes netiek ņemtas vērā šādās lomās, kad darbā pieņemšanas process ir automatizēts. Aizspriedumi tika iekļauti datu kopās, jo indivīdi, kas pievienoja iezīmes attēliem ar “sievieti”, ietvēra papildu etiķeti, kas sastāvēja no nievājoša vārda. Šis piemērs parāda, kā tīši vai netīši aizspriedumi var iefiltrēties pat vismodernākajās AI sistēmās, potenciāli saglabājot kaitīgus stereotipus un nevienlīdzību.

    Traucējoša ietekme 

    Pētnieki dažādās valsts un privātajās organizācijās ir uzsākuši centienus novērst datu un algoritmu novirzes. Piemēram, ImageNet projekta gadījumā tika izmantota pūļa piegāde, lai identificētu un novērstu marķējuma terminus, kas rada nievājošu gaismu noteiktiem attēliem. Šie pasākumi parādīja, ka patiešām ir iespējams pārkonfigurēt AI sistēmas, lai tās būtu taisnīgākas.

    Tomēr daži eksperti apgalvo, ka novirzes noņemšana potenciāli var padarīt datu kopu mazāk efektīvu, it īpaši, ja tiek izmantotas vairākas novirzes. Datu kopai, kurā nav noteiktas novirzes, var trūkt pietiekamas informācijas efektīvai lietošanai. Tas rada jautājumu par to, kā izskatītos patiesi daudzveidīga attēla datu kopa un kā to varētu izmantot, neapdraudot tās lietderību.

    Šī tendence uzsver nepieciešamību pēc pārdomātas pieejas AI un uz datiem balstītu tehnoloģiju izmantošanai. Uzņēmumiem tas varētu nozīmēt ieguldījumus novirzes noteikšanas rīkos un tehnoloģiju komandu dažādības veicināšanu. Valdībām tas varētu ietvert īstenošanas noteikumus, lai nodrošinātu AI godīgu izmantošanu. 

    AI novirzes sekas

    Plašākas AI novirzes sekas var ietvert:

    • Organizācijas aktīvi darbojas, nodrošinot godīgumu un nediskrimināciju, jo tās izmanto AI, lai uzlabotu produktivitāti un veiktspēju. 
    • AI ētikas piedalīšanās izstrādes komandās, lai atklātu un mazinātu ētiskos riskus jau projekta sākumā. 
    • AI produktu izstrāde, skaidri ņemot vērā tādus daudzveidības faktorus kā dzimums, rase, klase un kultūra.
    • Iegūstiet pārstāvjus no dažādām grupām, kuras izmantos uzņēmuma AI produktu, lai to pārbaudītu pirms tā izlaišanas.
    • Dažiem sabiedrības locekļiem ir ierobežoti dažādi sabiedriskie pakalpojumi.
    • Daži sabiedrības locekļi nevar piekļūt noteiktām darba iespējām vai pretendēt uz tām.
    • Tiesībaizsardzības iestādes un profesionāļi negodīgi vēršas pret noteiktiem sabiedrības locekļiem vairāk nekā citiem. 

    Jautājumi, kas jāapsver

    • Vai esat optimistisks, ka automatizēta lēmumu pieņemšana nākotnē būs godīga?
    • Kā ar AI lēmumu pieņemšanu jūs visvairāk satrauc?

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites: