Zaujatosť umelej inteligencie: Stroje nie sú také objektívne, ako sme dúfali

OBRÁZOK PRE OBRÁZOK:
Obrazový kredit
iStock

Zaujatosť umelej inteligencie: Stroje nie sú také objektívne, ako sme dúfali

Zaujatosť umelej inteligencie: Stroje nie sú také objektívne, ako sme dúfali

Text podnadpisu
Každý súhlasí s tým, že AI by mala byť nezaujatá, ale odstránenie predsudkov sa ukazuje ako problematické
    • Autor:
    • meno autora
      Predvídavosť Quantumrun
    • Februára 8, 2022

    Súhrn prehľadu

    Zatiaľ čo technológie založené na údajoch majú prísľub podpory spravodlivej spoločnosti, často odrážajú rovnaké predsudky, ktoré ľudia prechovávajú, čo vedie k potenciálnej nespravodlivosti. Napríklad predsudky v systémoch umelej inteligencie (AI) môžu neúmyselne zhoršiť škodlivé stereotypy. Vyvíjajú sa však snahy o to, aby boli systémy AI spravodlivejšie, hoci to vyvoláva zložité otázky o rovnováhe medzi užitočnosťou a spravodlivosťou a potrebe premyslenej regulácie a rozmanitosti v technologických tímoch.

    Všeobecný kontext skreslenia AI

    Dúfame, že technológie poháňané údajmi pomôžu ľudstvu vytvoriť spoločnosť, kde je spravodlivosť normou pre všetkých. Súčasná realita však dáva iný obraz. Mnohé z predsudkov, ktoré majú ľudia a ktoré v minulosti viedli k nespravodlivosti, sa teraz odrážajú v algoritmoch, ktoré riadia náš digitálny svet. Tieto predsudky v systémoch AI často pramenia z predsudkov jednotlivcov, ktorí tieto systémy vyvíjajú, a tieto predsudky často prenikajú do ich práce.

    Vezmime si napríklad projekt z roku 2012 známy ako ImageNet, ktorý sa snažil získať hromadné označovanie obrázkov na školenie systémov strojového učenia. Veľká neurónová sieť vyškolená na týchto údajoch bola následne schopná identifikovať objekty s pôsobivou presnosťou. Pri bližšom skúmaní však výskumníci objavili predsudky skryté v údajoch ImageNet. V jednom konkrétnom prípade bol algoritmus vyškolený na týchto údajoch zaujatý smerom k predpokladu, že všetci programátori softvéru sú bieli muži.

    Táto zaujatosť by mohla potenciálne viesť k tomu, že ženy budú pre takéto úlohy prehliadané, keď je proces prijímania zamestnancov automatizovaný. Predsudky sa dostali do súborov údajov, pretože jednotlivé pridávanie štítkov k obrázkom „ženy“ zahŕňalo ďalšie označenie, ktoré pozostávalo z hanlivého výrazu. Tento príklad ilustruje, ako môžu zaujatosti, či už úmyselné alebo neúmyselné, preniknúť aj do tých najsofistikovanejších systémov umelej inteligencie, čím môžu potenciálne udržiavať škodlivé stereotypy a nerovnosti.

    Rušivý vplyv 

    Výskumníci z rôznych verejných a súkromných organizácií iniciovali úsilie o riešenie skreslenia údajov a algoritmov. V prípade projektu ImageNet sa napríklad použil crowdsourcing na identifikáciu a odstránenie výrazov v označovaní, ktoré vrhajú hanlivé svetlo na určité obrázky. Tieto opatrenia ukázali, že je skutočne možné prekonfigurovať systémy AI tak, aby boli spravodlivejšie.

    Niektorí odborníci však tvrdia, že odstránenie skreslenia by mohlo potenciálne znížiť účinnosť súboru údajov, najmä ak ide o viacero skreslení. Súbor údajov zbavený určitých skreslení môže skončiť bez dostatočných informácií na efektívne využitie. Nastoľuje otázku, ako by vyzeral skutočne rôznorodý súbor obrazových údajov a ako by sa dal použiť bez toho, aby sa ohrozila jeho užitočnosť.

    Tento trend podčiarkuje potrebu premysleného prístupu k využívaniu AI a technológií založených na údajoch. Pre spoločnosti to môže znamenať investovanie do nástrojov na detekciu zaujatosti a podporu rozmanitosti v technologických tímoch. Pre vlády by to mohlo zahŕňať vykonávacie nariadenia na zabezpečenie spravodlivého používania AI. 

    Dôsledky zaujatosti AI

    Širšie dôsledky zaujatosti AI môžu zahŕňať:

    • Organizácie sú proaktívne pri zabezpečovaní spravodlivosti a nediskriminácie, keďže využívajú AI na zlepšenie produktivity a výkonu. 
    • Mať etika AI vo vývojových tímoch, aby odhalil a zmiernil etické riziká na začiatku projektu. 
    • Navrhovanie produktov umelej inteligencie so zreteľom na faktory rozmanitosti, ako je pohlavie, rasa, trieda a kultúra.
    • Získanie zástupcov z rôznych skupín, ktoré budú používať produkt AI spoločnosti na jeho testovanie pred jeho vydaním.
    • Určitým členom verejnosti sú obmedzené rôzne verejné služby.
    • Niektorí členovia verejnosti nemajú prístup k určitým pracovným príležitostiam alebo sa na ne nekvalifikujú.
    • Orgány činné v trestnom konaní a odborníci sa nespravodlivo zameriavajú na niektorých členov spoločnosti viac ako na iných. 

    Otázky na zváženie

    • Ste optimistom, že automatizované rozhodovanie bude v budúcnosti spravodlivé?
    • Čo vás pri rozhodovaní AI najviac znervózňuje?

    Prehľadové referencie

    Pre tento prehľad boli použité nasledujúce populárne a inštitucionálne odkazy: