Pregiudizio dell'intelligenza artificiale: le macchine non sono così obiettive come speravamo

CREDITO IMMAGINE:
Immagine di credito
iStock

Pregiudizio dell'intelligenza artificiale: le macchine non sono così obiettive come speravamo

Pregiudizio dell'intelligenza artificiale: le macchine non sono così obiettive come speravamo

Testo del sottotitolo
Tutti concordano sul fatto che l'IA dovrebbe essere imparziale, ma rimuovere i pregiudizi si sta rivelando problematico
    • Autore:
    • Nome dell'autore
      Preveggenza quantistica
    • 8 Febbraio 2022

    Riepilogo approfondimenti

    Sebbene le tecnologie basate sui dati mantengano la promessa di promuovere una società equa, spesso riflettono gli stessi pregiudizi che gli esseri umani nutrono, portando a potenziali ingiustizie. Ad esempio, i pregiudizi nei sistemi di intelligenza artificiale (AI) possono inavvertitamente peggiorare gli stereotipi dannosi. Tuttavia, sono in corso sforzi per rendere i sistemi di intelligenza artificiale più equi, sebbene ciò sollevi domande complesse sull'equilibrio tra utilità ed equità e sulla necessità di una regolamentazione ponderata e diversità nei team tecnologici.

    Contesto generale del pregiudizio dell'IA

    La speranza è che le tecnologie guidate dai dati aiutino l'umanità a stabilire una società in cui l'equità sia la norma per tutti. Tuttavia, la realtà attuale dipinge un quadro diverso. Molti dei pregiudizi che hanno gli esseri umani, che hanno portato a ingiustizie in passato, si riflettono ora negli algoritmi che governano il nostro mondo digitale. Questi pregiudizi nei sistemi di intelligenza artificiale spesso derivano dai pregiudizi degli individui che sviluppano questi sistemi e questi pregiudizi spesso si infiltrano nel loro lavoro.

    Prendiamo, ad esempio, un progetto nel 2012 noto come ImageNet, che ha cercato di crowdsourcing l'etichettatura delle immagini per la formazione dei sistemi di apprendimento automatico. Una grande rete neurale addestrata su questi dati è stata successivamente in grado di identificare gli oggetti con una precisione impressionante. Tuttavia, a un esame più attento, i ricercatori hanno scoperto pregiudizi nascosti nei dati di ImageNet. In un caso particolare, un algoritmo addestrato su questi dati era sbilanciato verso il presupposto che tutti i programmatori di software fossero uomini bianchi.

    Questo pregiudizio potrebbe potenzialmente far sì che le donne vengano trascurate per tali ruoli quando il processo di assunzione è automatizzato. I pregiudizi si sono fatti strada nei set di dati perché l'individuo che aggiungeva etichette alle immagini di "donna" includeva un'etichetta aggiuntiva che consisteva in un termine dispregiativo. Questo esempio illustra come i pregiudizi, intenzionali o non intenzionali, possano infiltrarsi anche nei sistemi di intelligenza artificiale più sofisticati, perpetuando potenzialmente stereotipi e disuguaglianze dannose.

    Impatto dirompente 

    Gli sforzi per affrontare i pregiudizi nei dati e negli algoritmi sono stati avviati dai ricercatori di varie organizzazioni pubbliche e private. Nel caso del progetto ImageNet, ad esempio, è stato impiegato il crowdsourcing per identificare ed eliminare termini di etichettatura che gettano una luce dispregiativa su determinate immagini. Queste misure hanno dimostrato che è effettivamente possibile riconfigurare i sistemi di intelligenza artificiale per renderli più equi.

    Tuttavia, alcuni esperti sostengono che la rimozione dei pregiudizi potrebbe potenzialmente rendere un set di dati meno efficace, in particolare quando sono in gioco più pregiudizi. Un set di dati privato di alcuni pregiudizi può finire per non disporre di informazioni sufficienti per un uso efficace. Solleva la questione di come sarebbe un set di dati di immagini veramente diversificato e come potrebbe essere utilizzato senza comprometterne l'utilità.

    Questa tendenza sottolinea la necessità di un approccio ponderato all'uso dell'intelligenza artificiale e delle tecnologie basate sui dati. Per le aziende, ciò potrebbe significare investire in strumenti di rilevamento dei pregiudizi e promuovere la diversità nei team tecnologici. Per i governi, potrebbe comportare l'attuazione di regolamenti per garantire un uso equo dell'IA. 

    Implicazioni del pregiudizio dell'IA

    Le implicazioni più ampie del pregiudizio dell'IA possono includere:

    • Le organizzazioni sono proattive nel garantire equità e non discriminazione mentre sfruttano l'IA per migliorare la produttività e le prestazioni. 
    • Avere un esperto di etica dell'IA nei team di sviluppo per rilevare e mitigare i rischi etici all'inizio di un progetto. 
    • Progettare prodotti di intelligenza artificiale tenendo chiaramente a mente fattori di diversità come sesso, razza, classe e cultura.
    • Ottenere rappresentanti dei diversi gruppi che utilizzeranno il prodotto AI di un'azienda per testarlo prima che venga rilasciato.
    • Vari servizi pubblici sono limitati da alcuni membri del pubblico.
    • Alcuni membri del pubblico non possono accedere o qualificarsi per determinate opportunità di lavoro.
    • Le forze dell'ordine e i professionisti prendono di mira ingiustamente alcuni membri della società più di altri. 

    Domande da considerare

    • Sei ottimista sul fatto che il processo decisionale automatizzato sarà equo in futuro?
    • Cosa ti rende più nervoso il processo decisionale basato sull'IA?

    Riferimenti di approfondimento

    I seguenti collegamenti popolari e istituzionali sono stati referenziati per questa intuizione: