Preghjudiziu di l'intelligenza artificiale: E macchine ùn sò micca ughjettivi cum'è speravamu

CREDITU IMAGE:
Image credit
iStock

Preghjudiziu di l'intelligenza artificiale: E macchine ùn sò micca ughjettivi cum'è speravamu

Preghjudiziu di l'intelligenza artificiale: E macchine ùn sò micca ughjettivi cum'è speravamu

Testu di sottotitulu
Tutti accunsenu chì l'IA deve esse imparziale, ma a rimuzione di i preghjudizii hè dimustratu problematicu
    • Author:
    • Nome di l'autore
      Quantumrun Foresight
    • Ferraghju 8, 2022

    Riassuntu insight

    Mentre i tecnulugii basati nantu à i dati mantenenu a prumessa di prumove una sucità giusta, spessu riflettenu i stessi preghjudizii chì l'omu portanu, purtendu à putenziali inghjustizie. Per esempiu, i preghjudizii in i sistemi di intelligenza artificiale (AI) ponu aggravà inavvertitamente stereotipi dannosi. Tuttavia, i sforzi sò in corso per rende i sistemi AI più equitati, anche se questu pone questioni cumplesse nantu à l'equilibriu trà l'utilità è l'equità, è a necessità di regulazione pensativa è diversità in squadre tecnologiche.

    Cuntestu generale bias AI

    A speranza hè chì e tecnulugia guidate da e dati aiutanu l'umanità à stabilisce una sucità induve l'equità hè a norma per tutti. Tuttavia, a realità attuale pinghje un ritrattu diversu. Parechje di i preghjudizii chì l'omu anu, chì anu purtatu à inghjustizie in u passatu, sò oghji specchi in l'algoritmi chì guvernanu u nostru mondu digitale. Questi preghjudizii in i sistemi AI spessu derivanu da i preghjudizii di l'individui chì sviluppanu questi sistemi, è questi preghjudizii spessu si infiltranu in u so travagliu.

    Pigliate, per esempiu, un prughjettu in u 2012 cunnisciutu cum'è ImageNet, chì cercava di crowdsource l'etichettatura di l'imaghjini per a furmazione di sistemi di apprendimentu di machine. Una grande rete neurale addestrata nantu à sta dati hè stata successivamente capace di identificà l'uggetti cù una precisione impressiunanti. Tuttavia, dopu un'ispezione più stretta, i circadori anu scupertu preghjudizii nascosti in i dati ImageNet. In un casu particulari, un algoritmu furmatu nantu à sta dati era preghjudiziu versu l'assunzione chì tutti i programatori di software sò omi bianchi.

    Stu preghjudiziu puderia riesce à chì e donne sò trascurate per tali roli quandu u prucessu di assunzione hè automatizatu. I preghjudizii anu truvatu u so modu in i setti di dati perchè l'individuu chì aghjunghjenu etichette à l'imaghjini di "donna" includeu una etichetta addiziale chì custituia di un termini disprezzu. Questu esempiu illustra cumu i preghjudizii, intenzionali o micca, ponu infiltrate ancu i sistemi AI più sofisticati, potenzialmente perpetuendu stereotipi dannosi è inuguaglianze.

    Impact disruptive 

    I sforzi per affruntà u preghjudiziu in i dati è l'algoritmi sò stati iniziati da circadori in diverse urganisazioni pubbliche è private. In u casu di u prughjettu ImageNet, per esempiu, u crowdsourcing hè statu impiegatu per identificà è eliminà i termini di l'etichettatura chì ponu una luce disprezzativa nantu à certe imagine. Queste misure anu dimustratu chì hè veramente pussibule di cunfigurà i sistemi AI per esse più equitati.

    Tuttavia, certi esperti sustenenu chì a rimozione di preghjudiziu puderia potenzialmente rende un settore di dati menu efficace, in particulare quandu parechji preghjudizii sò in ghjocu. Un inseme di dati spogliatu di certi preghjudizii pò finisce per manca d'infurmazioni sufficienti per un usu efficace. Suscita a quistione di ciò chì un settore di dati di l'imaghjini veramente diversu pare, è cumu puderia esse usatu senza compromette a so utilità.

    Questa tendenza mette in risaltu a necessità di un approcciu pensativu à l'usu di l'AI è di e tecnulugia guidate da dati. Per l'imprese, questu puderia significà investisce in strumenti di rilevazione di preghjudizii è prumove a diversità in e squadre tecnologiche. Per i guverni, puderia implicà l'implementazione di regulamenti per assicurà un usu ghjustu di l'IA. 

    Implicazioni di u bias AI

    Implicazioni più larghe di preghjudiziu AI pò include:

    • L'urganisazioni sò proattive per assicurà l'equità è a non-discriminazione mentre sfruttanu l'AI per migliurà a produtividade è u rendiment. 
    • Avè un eticu AI in squadre di sviluppu per detectà è mitigà i risichi etichi prima di un prughjettu. 
    • Cuncepimentu di prudutti AI cun fattori di diversità cum'è u genere, a razza, a classe è a cultura chjaramente in mente.
    • Ottene rapprisentanti da i diversi gruppi chì utilizanu u pruduttu AI di una cumpagnia per pruvà prima di esse liberatu.
    • Diversi servizii publichi sò limitati da certi membri di u publicu.
    • Certi membri di u publicu ùn anu pussutu accede o qualificà per certe opportunità di travagliu.
    • L'agenzii di l'applicazione di a lege è i prufessiunali ingiustamente miranu certi membri di a sucità più cà altri. 

    Dumande da cunsiderà

    • Sò ottimista chì a decisione automatizata serà ghjustu in u futuru?
    • Chì ci hè di a decisione di l'AI ti rende u più nervoso?

    Referenze insight

    I seguenti ligami populari è istituzionali sò stati riferiti per questa intuizione: