Sesgo da intelixencia artificial: as máquinas non son tan obxectivas como esperabamos

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Sesgo da intelixencia artificial: as máquinas non son tan obxectivas como esperabamos

Sesgo da intelixencia artificial: as máquinas non son tan obxectivas como esperabamos

Texto do subtítulo
Todo o mundo está de acordo en que a IA debe ser imparcial, pero eliminar os prexuízos resulta problemático
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Febreiro 8, 2022

    Resumo de insight

    Aínda que as tecnoloxías baseadas nos datos prometen fomentar unha sociedade xusta, moitas veces reflicten os mesmos prexuízos que os humanos albergan, o que leva a posibles inxustizas. Por exemplo, os prexuízos nos sistemas de intelixencia artificial (IA) poden empeorar inadvertidamente estereotipos prexudiciais. Non obstante, están en marcha esforzos para que os sistemas de IA sexan máis equitativos, aínda que isto suscita preguntas complexas sobre o equilibrio entre utilidade e equidade, e a necesidade dunha regulación e diversidade reflexivas nos equipos tecnolóxicos.

    Contexto xeral de sesgo da IA

    A esperanza é que as tecnoloxías impulsadas polos datos axuden á humanidade a establecer unha sociedade onde a xustiza sexa a norma para todos. Porén, a realidade actual pinta un panorama diferente. Moitos dos prexuízos que teñen os seres humanos, que levaron a inxustizas no pasado, están a reflectirse agora nos algoritmos que rexen o noso mundo dixital. Estes prexuízos nos sistemas de IA adoitan derivarse dos prexuízos dos individuos que desenvolven estes sistemas, e estes prexuízos adoitan filtrarse no seu traballo.

    Tomemos, por exemplo, un proxecto en 2012 coñecido como ImageNet, que pretendía facer un crowdsource a etiquetaxe de imaxes para a formación de sistemas de aprendizaxe automática. Unha gran rede neuronal adestrada nestes datos foi capaz de identificar obxectos cunha precisión impresionante. Non obstante, tras unha inspección máis atenta, os investigadores descubriron sesgos escondidos nos datos de ImageNet. Nun caso particular, un algoritmo adestrado con estes datos estaba sesgado na suposición de que todos os programadores de software son homes brancos.

    Este sesgo podería provocar que as mulleres sexan ignoradas para tales roles cando o proceso de contratación se automatiza. Os prexuízos atoparon o seu camiño nos conxuntos de datos porque o individuo que engadía etiquetas ás imaxes de "muller" incluía unha etiqueta adicional que consistía nun termo despectivo. Este exemplo ilustra como os prexuízos, sexan intencionados ou non, poden infiltrarse incluso nos sistemas de IA máis sofisticados, perpetuando potencialmente estereotipos e desigualdades daniños.

    Impacto perturbador 

    Os esforzos para abordar o sesgo nos datos e os algoritmos foron iniciados por investigadores de varias organizacións públicas e privadas. No caso do proxecto ImageNet, por exemplo, empregouse o crowdsourcing para identificar e eliminar termos de etiquetaxe que arroxan unha luz despectiva sobre certas imaxes. Estas medidas demostraron que realmente é posible reconfigurar os sistemas de IA para que sexan máis equitativos.

    Non obstante, algúns expertos argumentan que a eliminación do sesgo podería facer que un conxunto de datos sexa menos efectivo, especialmente cando hai varios sesgos en xogo. Un conxunto de datos desposuído de certos prexuízos pode acabar carecendo de información suficiente para un uso eficaz. Suscita a cuestión de como sería un conxunto de datos de imaxes verdadeiramente diverso e como se podería usar sen comprometer a súa utilidade.

    Esta tendencia subliña a necesidade dun enfoque reflexivo do uso da intelixencia artificial e das tecnoloxías baseadas en datos. Para as empresas, isto pode significar investir en ferramentas de detección de prexuízos e promover a diversidade nos equipos tecnolóxicos. Para os gobernos, podería implicar a implementación de regulamentos para garantir un uso xusto da IA. 

    Implicacións do sesgo da IA

    As implicacións máis amplas do sesgo da IA ​​poden incluír:

    • As organizacións son proactivas para garantir a xustiza e a non discriminación mentres aproveitan a IA para mellorar a produtividade e o rendemento. 
    • Contar cun especialista en IA nos equipos de desenvolvemento para detectar e mitigar os riscos éticos no inicio dun proxecto. 
    • Deseñar produtos de IA tendo en conta factores de diversidade como o xénero, a raza, a clase e a cultura.
    • Conseguir representantes dos diversos grupos que utilizarán o produto de IA dunha empresa para probalo antes de que se publique.
    • Varios servizos públicos están restrinxidos a determinados membros do público.
    • Algúns membros do público non poden acceder ou cualificarse para determinadas oportunidades laborais.
    • As forzas da orde e os profesionais apuntan inxustamente a certos membros da sociedade máis que a outros. 

    Preguntas a ter en conta

    • Estás optimista de que a toma de decisións automatizada será xusta no futuro?
    • Que pasa coa toma de decisións da intelixencia artificial ponche máis nervioso?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: