Viés de inteligência artificial: as máquinas não são tão objetivas quanto esperávamos

CRÉDITO DE IMAGEM:
Crédito da imagem
iStock

Viés de inteligência artificial: as máquinas não são tão objetivas quanto esperávamos

Viés de inteligência artificial: as máquinas não são tão objetivas quanto esperávamos

Texto do subtítulo
Todos concordam que a IA deve ser imparcial, mas remover preconceitos está se mostrando problemático
    • Autor:
    • Nome do autor
      Previsão Quantumrun
    • 8 de fevereiro de 2022

    Resumo do insight

    Embora as tecnologias baseadas em dados mantenham a promessa de promover uma sociedade justa, muitas vezes reflectem os mesmos preconceitos que os humanos nutrem, levando a potenciais injustiças. Por exemplo, os preconceitos nos sistemas de inteligência artificial (IA) podem agravar inadvertidamente estereótipos prejudiciais. No entanto, estão em curso esforços para tornar os sistemas de IA mais equitativos, embora isto levante questões complexas sobre o equilíbrio entre utilidade e justiça, e a necessidade de uma regulamentação criteriosa e de diversidade nas equipas tecnológicas.

    Contexto geral de viés de IA

    A esperança é que as tecnologias impulsionadas pelos dados ajudem a humanidade a estabelecer uma sociedade onde a justiça seja a norma para todos. No entanto, a realidade atual pinta um quadro diferente. Muitos dos preconceitos que os humanos têm, que levaram a injustiças no passado, estão agora a ser refletidos nos algoritmos que governam o nosso mundo digital. Estes preconceitos nos sistemas de IA resultam frequentemente de preconceitos dos indivíduos que desenvolvem estes sistemas, e estes preconceitos frequentemente infiltram-se no seu trabalho.

    Tomemos, por exemplo, um projeto de 2012 conhecido como ImageNet, que buscava crowdsource a rotulagem de imagens para o treinamento de sistemas de aprendizado de máquina. Uma grande rede neural treinada com base nesses dados foi posteriormente capaz de identificar objetos com uma precisão impressionante. No entanto, após uma inspeção mais detalhada, os pesquisadores descobriram preconceitos ocultos nos dados do ImageNet. Num caso particular, um algoritmo treinado com base nestes dados foi influenciado pela suposição de que todos os programadores de software são homens brancos.

    Este preconceito pode potencialmente resultar na negligência das mulheres para tais funções quando o processo de contratação é automatizado. Os preconceitos chegaram aos conjuntos de dados porque o indivíduo que adicionava rótulos às imagens de “mulher” incluía um rótulo adicional que consistia num termo depreciativo. Este exemplo ilustra como os preconceitos, intencionais ou não, podem infiltrar-se até nos sistemas de IA mais sofisticados, perpetuando potencialmente estereótipos e desigualdades prejudiciais.

    Impacto disruptivo 

    Esforços para resolver o preconceito nos dados e algoritmos foram iniciados por pesquisadores de várias organizações públicas e privadas. No caso do projeto ImageNet, por exemplo, o crowdsourcing foi empregado para identificar e eliminar termos de rotulagem que lançassem uma luz depreciativa sobre determinadas imagens. Estas medidas demonstraram que é realmente possível reconfigurar os sistemas de IA para serem mais equitativos.

    No entanto, alguns especialistas argumentam que a remoção de preconceitos poderia potencialmente tornar um conjunto de dados menos eficaz, especialmente quando vários preconceitos estão em jogo. Um conjunto de dados desprovido de certos preconceitos pode acabar carecendo de informações suficientes para uma utilização eficaz. Isso levanta a questão de como seria um conjunto de dados de imagens verdadeiramente diversificado e como ele poderia ser usado sem comprometer sua utilidade.

    Esta tendência sublinha a necessidade de uma abordagem ponderada à utilização de IA e de tecnologias baseadas em dados. Para as empresas, isto pode significar investir em ferramentas de detecção de preconceitos e promover a diversidade nas equipas tecnológicas. Para os governos, poderia envolver a implementação de regulamentos para garantir o uso justo da IA. 

    Implicações do preconceito da IA

    Implicações mais amplas do preconceito da IA ​​podem incluir:

    • As organizações são proativas para garantir a justiça e a não discriminação à medida que aproveitam a IA para melhorar a produtividade e o desempenho. 
    • Ter um especialista em ética de IA nas equipes de desenvolvimento para detectar e mitigar riscos éticos no início de um projeto. 
    • Projetar produtos de IA com fatores de diversidade como gênero, raça, classe e cultura claramente em mente.
    • Obter representantes dos diversos grupos que usarão o produto de IA de uma empresa para testá-lo antes de ser lançado.
    • Vários serviços públicos sendo restritos a certos membros do público.
    • Certos membros do público não podem acessar ou se qualificar para certas oportunidades de trabalho.
    • Agências de aplicação da lei e profissionais visando injustamente certos membros da sociedade mais do que outros. 

    Questões a considerar

    • Você está otimista de que a tomada de decisões automatizada será justa no futuro?
    • O que a tomada de decisões de IA deixa você mais nervoso?

    Referências de insights

    Os seguintes links populares e institucionais foram referenciados para esta percepção: