Prejudecăți legate de inteligența artificială: mașinile nu sunt atât de obiective pe cât am sperat

CREDIT DE IMAGINE:
Imagine de credit
iStock

Prejudecăți legate de inteligența artificială: mașinile nu sunt atât de obiective pe cât am sperat

Prejudecăți legate de inteligența artificială: mașinile nu sunt atât de obiective pe cât am sperat

Textul subtitlului
Toată lumea este de acord că IA ar trebui să fie imparțială, dar eliminarea părtinirilor se dovedește problematică
    • Autor:
    • Numele autorului
      Previziune Quantumrun
    • 8 Februarie 2022

    Rezumat perspectivă

    În timp ce tehnologiile bazate pe date dețin promisiunea de a promova o societate echitabilă, ele reflectă adesea aceleași părtiniri pe care oamenii le găzduiesc, ceea ce duce la potențiale nedreptăți. De exemplu, prejudecățile în sistemele de inteligență artificială (AI) pot agrava din neatenție stereotipurile dăunătoare. Cu toate acestea, sunt în curs de desfășurare eforturi pentru a face sistemele AI mai echitabile, deși acest lucru ridică întrebări complexe cu privire la echilibrul dintre utilitate și corectitudine și nevoia de reglementare atentă și diversitate în echipele tehnologice.

    Contextul general de părtinire a AI

    Speranța este că tehnologiile bazate pe date vor ajuta omenirea să înființeze o societate în care corectitudinea este norma pentru toți. Cu toate acestea, realitatea actuală prezintă o imagine diferită. Multe dintre prejudecățile pe care le au oamenii, care au dus la nedreptăți în trecut, sunt acum reflectate în algoritmii care guvernează lumea noastră digitală. Aceste prejudecăți în sistemele AI provin adesea din prejudecățile indivizilor care dezvoltă aceste sisteme, iar aceste părtiniri se infiltrează frecvent în activitatea lor.

    Să luăm, de exemplu, un proiect din 2012, cunoscut sub numele de ImageNet, care a căutat să facă un crowdsource etichetarea imaginilor pentru instruirea sistemelor de învățare automată. O rețea neuronală mare instruită pe aceste date a fost ulterior capabilă să identifice obiectele cu o precizie impresionantă. Cu toate acestea, la o inspecție mai atentă, cercetătorii au descoperit părtiniri ascunse în datele ImageNet. Într-un caz particular, un algoritm antrenat pe aceste date a fost părtinitor spre presupunerea că toți programatorii de software sunt bărbați albi.

    Această părtinire ar putea duce la trecerea cu vederea femeilor pentru astfel de roluri atunci când procesul de angajare este automatizat. Prejudecățile și-au găsit drumul în seturile de date deoarece persoana care a adăugat etichete la imaginile cu „femeie” a inclus o etichetă suplimentară care a constat dintr-un termen derogatoriu. Acest exemplu ilustrează modul în care prejudecățile, fie că sunt intenționate sau neintenționate, se pot infiltra chiar și în cele mai sofisticate sisteme AI, perpetuând potențial stereotipuri și inegalități dăunătoare.

    Impact perturbator 

    Eforturile de abordare a părtinirii datelor și algoritmilor au fost inițiate de cercetători din diferite organizații publice și private. În cazul proiectului ImageNet, de exemplu, crowdsourcing-ul a fost folosit pentru a identifica și elimina termenii de etichetare care aruncă o lumină derogatorie asupra anumitor imagini. Aceste măsuri au demonstrat că este într-adevăr posibil să se reconfigureze sistemele AI pentru a fi mai echitabile.

    Cu toate acestea, unii experți susțin că eliminarea părtinirii ar putea face un set de date mai puțin eficient, în special atunci când sunt în joc mai multe părtiniri. Un set de date lipsit de anumite părtiniri poate ajunge să nu aibă suficiente informații pentru o utilizare eficientă. Se ridică întrebarea cum ar arăta un set de date de imagine cu adevărat divers și cum ar putea fi utilizat fără a-i compromite utilitatea.

    Această tendință subliniază necesitatea unei abordări atentă a utilizării AI și a tehnologiilor bazate pe date. Pentru companii, acest lucru ar putea însemna investiții în instrumente de detectare a părtinirii și promovarea diversității în echipele tehnologice. Pentru guverne, ar putea implica implementarea unor reglementări care să asigure utilizarea corectă a IA. 

    Implicațiile părtinirii AI

    Implicațiile mai largi ale părtinirii AI pot include:

    • Organizațiile sunt proactive în asigurarea echității și nediscriminării, deoarece folosesc AI pentru a îmbunătăți productivitatea și performanța. 
    • A avea un etician AI în echipele de dezvoltare pentru a detecta și a atenua riscurile etice la începutul unui proiect. 
    • Proiectarea produselor AI ținând cont în mod clar de factori de diversitate, cum ar fi sexul, rasa, clasa și cultura.
    • Obținerea de reprezentanți ai diverselor grupuri care vor folosi produsul AI al unei companii pentru a-l testa înainte de a fi lansat.
    • Diverse servicii publice fiind restricționate de la anumiți membri ai publicului.
    • Anumiți membri ai publicului nu pot accesa sau se califică pentru anumite oportunități de muncă.
    • Agențiile de aplicare a legii și profesioniștii care vizează în mod nedrept anumiți membri ai societății mai mult decât pe alții. 

    Întrebări de luat în considerare

    • Sunteți optimist că luarea automată a deciziilor va fi corectă în viitor?
    • Ce zici de luarea deciziilor AI te face cel mai nervos?

    Referințe de perspectivă

    Următoarele linkuri populare și instituționale au fost menționate pentru această perspectivă: