Bias foar keunstmjittige yntelliginsje: Masines binne net sa objektyf as wy hope

Ofbyldingskredyt:
Image credit
iStock

Bias foar keunstmjittige yntelliginsje: Masines binne net sa objektyf as wy hope

Bias foar keunstmjittige yntelliginsje: Masines binne net sa objektyf as wy hope

Subheading tekst
Elkenien is it iens dat AI unbiased wêze moat, mar it fuortheljen fan biases blykt problematysk
    • Skriuwer:
    • Namme fan auteur
      Quantumrun Foresight
    • Febrewaris 8, 2022

    Ynsjoch gearfetting

    Wylst data-oandreaune technologyen de belofte hâlde fan it befoarderjen fan in earlike maatskippij, reflektearje se faaks deselde foaroardielen dy't minsken hawwe, wat liedt ta potinsjele ûnrjocht. Bygelyks, foaroardielen yn systemen foar keunstmjittige yntelliginsje (AI) kinne ûnbedoeld skealike stereotypen fergrieme. Der binne lykwols ynspanningen oan 'e gong om AI-systemen rjochterliker te meitsjen, hoewol dit komplekse fragen opropt oer it lykwicht tusken nut en earlikens, en de needsaak foar trochtochte regeljouwing en ferskaat yn techteams.

    AI bias algemiene kontekst

    De hope is dat technologyen oandreaun troch gegevens it minskdom sille helpe by it oprjochtsjen fan in maatskippij wêr't earlikens de noarm is foar elkenien. De hjoeddeiske werklikheid sketst lykwols in oar byld. In protte fan 'e foaroardielen dy't minsken hawwe, dy't yn it ferline liede ta ûnrjocht, wurde no spegele yn' e algoritmen dy't ús digitale wrâld regelje. Dizze foaroardielen yn AI-systemen komme faak út foaroardielen fan 'e yndividuen dy't dizze systemen ûntwikkelje, en dizze foaroardielen sûpe faak yn har wurk.

    Nim bygelyks in projekt yn 2012 bekend as ImageNet, dat besocht de labeling fan ôfbyldings te crowdsourcen foar de training fan masine-learsystemen. In grut neuraal netwurk trainearre op dizze gegevens koe dêrnei objekten identifisearje mei yndrukwekkende krektens. By tichterby ynspeksje ûntdutsen ûndersikers lykwols foaroardielen ferburgen yn 'e ImageNet-gegevens. Yn ien bepaald gefal wie in algoritme oplaat op dizze gegevens bias foar de oanname dat alle softwareprogrammeurs blanke manlju binne.

    Dizze foaroardielen kin mooglik resultearje yn froulju dy't oersjogge foar sokke rollen as it ynhierproses automatisearre wurdt. De foaroardielen fûnen har wei yn 'e datasets, om't it yndividu dat labels tafoege oan ôfbyldings fan "frou" in ekstra label omfette dat bestie út in derogearjende term. Dit foarbyld yllustrearret hoe't foaroardielen, itsij opsetlik as ûnbedoeld, sels de meast ferfine AI-systemen kinne ynfiltrearje, en mooglik skealike stereotypen en ûngelikens behâlde.

    Disruptive ynfloed 

    Ynspanningen om bias yn gegevens en algoritmen oan te pakken binne inisjeare troch ûndersikers yn ferskate publike en partikuliere organisaasjes. Yn it gefal fan it ImageNet-projekt, bygelyks, waard crowdsourcing brûkt om etiketteringsbegripen te identifisearjen en te eliminearjen dy't in denigearjende ljocht smieten op bepaalde ôfbyldings. Dizze maatregels hawwe oantoand dat it yndie mooglik is om AI-systemen opnij te konfigurearjen om rjochterder te wêzen.

    Guon saakkundigen beweare lykwols dat it fuortheljen fan bias in gegevensset mooglik minder effektyf kin meitsje, foaral as meardere biasen oan it spiel binne. In gegevensset ûntslein fan bepaalde foaroardielen kin úteinlik genôch ynformaasje ûntbrekke foar effektyf gebrûk. It ropt de fraach op hoe't in wirklik ferskaat bylddataset der útsjen soe, en hoe't it koe wurde brûkt sûnder syn nut te kompromittearjen.

    Dizze trend ûnderstreket de needsaak foar in trochtochte oanpak foar it brûken fan AI en data-oandreaune technologyen. Foar bedriuwen kin dit betsjutte ynvestearje yn ark foar foaroardieldeteksje en it befoarderjen fan ferskaat yn techteams. Foar oerheden kin it ymplementearje fan regeljouwing om earlik gebrûk fan AI te garandearjen. 

    Gefolgen fan AI bias

    Bredere gefolgen fan AI-bias kinne omfetsje:

    • Organisaasjes dy't proaktyf binne yn it garandearjen fan gerjochtichheid en net-diskriminaasje, om't se AI brûke om produktiviteit en prestaasjes te ferbetterjen. 
    • In AI-etikus hawwe yn ûntwikkelingsteams om etyske risiko's betiid yn in projekt te ûntdekken en te mitigearjen. 
    • AI-produkten ûntwerpe mei ferskaatsfaktoaren lykas geslacht, ras, klasse en kultuer dúdlik yn gedachten.
    • Fertsjintwurdigers krije fan 'e ferskate groepen dy't it AI-produkt fan in bedriuw sille brûke om it te testen foardat it wurdt frijlitten.
    • Ferskate iepenbiere tsjinsten wurde beheind fan bepaalde leden fan it publyk.
    • Bepaalde leden fan it publyk kinne gjin tagong krije ta of kwalifisearje foar bepaalde wurkmooglikheden.
    • Wet hanthaveningsbelied ynstânsjes en professionals dy't ûnrjochtlik rjochtsje op bepaalde leden fan 'e maatskippij mear as oaren. 

    Fragen om te beskôgje

    • Binne jo optimistysk dat automatyske beslútfoarming yn 'e takomst earlik sil wêze?
    • Wat oer AI-beslútfoarming makket jo it meast senuweftich?

    Ynsjoch ferwizings

    De folgjende populêre en ynstitúsjonele keppelings waarden ferwiisd foar dit ynsjoch: