Vooroordeel van kunsmatige intelligensie: Masjiene is nie so objektief as wat ons gehoop het nie

BEELDKREDIET:
Image krediet
iStock

Vooroordeel van kunsmatige intelligensie: Masjiene is nie so objektief as wat ons gehoop het nie

Vooroordeel van kunsmatige intelligensie: Masjiene is nie so objektief as wat ons gehoop het nie

Subopskrif teks
Almal stem saam dat KI onbevooroordeeld moet wees, maar die verwydering van vooroordele blyk problematies te wees
    • Author:
    • Author naam
      Quantumrun Foresight
    • 8 Februarie 2022

    Insig opsomming

    Terwyl data-gedrewe tegnologieë die belofte inhou om 'n regverdige samelewing te bevorder, weerspieël dit dikwels dieselfde vooroordele wat mense koester, wat lei tot potensiële onregte. Vooroordele in kunsmatige intelligensie (KI)-stelsels kan byvoorbeeld onopsetlik skadelike stereotipes vererger. Pogings is egter aan die gang om KI-stelsels meer regverdig te maak, alhoewel dit komplekse vrae laat ontstaan ​​oor die balans tussen nut en regverdigheid, en die behoefte aan deurdagte regulering en diversiteit in tegnologiespanne.

    KI vooroordeel algemene konteks

    Die hoop is dat tegnologieë wat deur data gedryf word, die mensdom sal help om 'n samelewing te vestig waar regverdigheid die norm vir almal is. Die huidige werklikheid skets egter 'n ander prentjie. Baie van die vooroordele wat mense het, wat in die verlede tot ongeregtighede gelei het, word nou weerspieël in die algoritmes wat ons digitale wêreld beheer. Hierdie vooroordele in KI-stelsels spruit dikwels uit vooroordele van die individue wat hierdie stelsels ontwikkel, en hierdie vooroordele sypel gereeld in hul werk in.

    Neem byvoorbeeld 'n projek in 2012 bekend as ImageNet, wat probeer het om die etikettering van beelde vir die opleiding van masjienleerstelsels te skare. 'n Groot neurale netwerk wat op hierdie data opgelei is, was daarna in staat om voorwerpe met indrukwekkende akkuraatheid te identifiseer. By nadere ondersoek het navorsers egter vooroordele ontdek wat in die ImageNet-data versteek is. In een spesifieke geval was 'n algoritme wat op hierdie data opgelei is, bevooroordeeld teenoor die aanname dat alle sagtewareprogrammeerders wit mans is.

    Hierdie vooroordeel kan moontlik daartoe lei dat vroue oor die hoof gesien word vir sulke rolle wanneer die aanstellingsproses geoutomatiseer word. Die vooroordele het hul weg in die datastelle gevind omdat die individu wat etikette by beelde van "vrou" gevoeg het, 'n bykomende etiket ingesluit het wat uit 'n neerhalende term bestaan ​​het. Hierdie voorbeeld illustreer hoe vooroordele, hetsy opsetlik of onopsetlik, selfs die mees gesofistikeerde KI-stelsels kan infiltreer, wat moontlik skadelike stereotipes en ongelykhede kan voortduur.

    Ontwrigtende impak 

    Pogings om vooroordeel in data en algoritmes aan te spreek is deur navorsers oor verskeie openbare en private organisasies geïnisieer. In die geval van die ImageNet-projek, byvoorbeeld, is crowdsourcing aangewend om etiketterme wat 'n neerhalende lig op sekere beelde werp, te identifiseer en uit te skakel. Hierdie maatreëls het getoon dat dit inderdaad moontlik is om KI-stelsels te herkonfigureer om meer regverdig te wees.

    Sommige kenners argumenteer egter dat die verwydering van vooroordeel 'n datastel moontlik minder effektief kan maak, veral wanneer veelvuldige vooroordele ter sprake is. 'n Datastel wat van sekere vooroordele gestroop is, kan uiteindelik nie genoeg inligting hê vir effektiewe gebruik nie. Dit laat die vraag ontstaan ​​hoe 'n werklik diverse beelddatastel sal lyk, en hoe dit gebruik kan word sonder om die bruikbaarheid daarvan te benadeel.

    Hierdie tendens beklemtoon die behoefte aan 'n deurdagte benadering tot die gebruik van KI en data-gedrewe tegnologieë. Vir maatskappye kan dit beteken dat daar in vooroordeelopsporingsinstrumente belê word en diversiteit in tegnologiespanne bevorder word. Vir regerings kan dit die implementering van regulasies behels om billike gebruik van KI te verseker. 

    Implikasies van KI-vooroordeel

    Wyer implikasies van KI-vooroordeel kan die volgende insluit:

    • Organisasies wat proaktief is om regverdigheid en nie-diskriminasie te verseker, aangesien hulle KI gebruik om produktiwiteit en prestasie te verbeter. 
    • Om 'n KI-etikus in ontwikkelingspanne te hê om etiese risiko's vroeg in 'n projek op te spoor en te versag. 
    • Ontwerp KI-produkte met diversiteitsfaktore soos geslag, ras, klas en kultuur duidelik in gedagte.
    • Kry verteenwoordigers van die diverse groepe wat 'n maatskappy se KI-produk gaan gebruik om dit te toets voordat dit vrygestel word.
    • Verskeie openbare dienste word van sekere lede van die publiek beperk.
    • Sekere lede van die publiek wat nie toegang tot sekere werksgeleenthede kan verkry of daarvoor kwalifiseer nie.
    • Wetstoepassingsagentskappe en professionele persone wat sekere lede van die samelewing meer as ander teiken. 

    Vrae om te oorweeg

    • Is jy optimisties dat outomatiese besluitneming in die toekoms billik sal wees?
    • Wat van KI-besluitneming maak jou die mees senuweeagtig?

    Insig verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie insig verwys: