Biais de l'intelligence artificielle : les machines ne sont pas aussi objectives que nous l'espérions

CRÉDIT D'IMAGE:
Crédit image
iStock

Biais de l'intelligence artificielle : les machines ne sont pas aussi objectives que nous l'espérions

Biais de l'intelligence artificielle : les machines ne sont pas aussi objectives que nous l'espérions

Texte du sous-titre
Tout le monde s'accorde à dire que l'IA doit être impartiale, mais la suppression des préjugés s'avère problématique
    • Auteur :
    • Nom de l'auteur
      Prévision quantique
    • 8 février 2022

    Résumé des informations

    Alors que les technologies basées sur les données promettent de favoriser une société juste, elles reflètent souvent les mêmes préjugés que les humains nourrissent, conduisant à des injustices potentielles. Par exemple, les biais dans les systèmes d'intelligence artificielle (IA) peuvent aggraver par inadvertance les stéréotypes nuisibles. Cependant, des efforts sont en cours pour rendre les systèmes d'IA plus équitables, bien que cela soulève des questions complexes sur l'équilibre entre utilité et équité, et sur la nécessité d'une réglementation réfléchie et de la diversité dans les équipes techniques.

    Contexte général du biais de l'IA

    L'espoir est que les technologies pilotées par les données aideront l'humanité à établir une société où l'équité est la norme pour tous. Cependant, la réalité actuelle brosse un tableau différent. Bon nombre des préjugés humains, qui ont conduit à des injustices dans le passé, se reflètent désormais dans les algorithmes qui régissent notre monde numérique. Ces biais dans les systèmes d'IA proviennent souvent des préjugés des individus qui développent ces systèmes, et ces biais s'infiltrent fréquemment dans leur travail.

    Prenez, par exemple, un projet en 2012 connu sous le nom d'ImageNet, qui cherchait à externaliser l'étiquetage des images pour la formation des systèmes d'apprentissage automatique. Un vaste réseau neuronal entraîné sur ces données a ensuite été en mesure d'identifier des objets avec une précision impressionnante. Cependant, après une inspection plus approfondie, les chercheurs ont découvert des biais cachés dans les données ImageNet. Dans un cas particulier, un algorithme formé sur ces données était biaisé en faveur de l'hypothèse que tous les programmeurs de logiciels sont des hommes blancs.

    Ce biais pourrait potentiellement faire en sorte que les femmes soient négligées pour de tels rôles lorsque le processus d'embauche est automatisé. Les biais se sont retrouvés dans les ensembles de données parce que l'individu qui ajoutait des étiquettes aux images de "femme" incluait une étiquette supplémentaire qui consistait en un terme péjoratif. Cet exemple illustre comment les préjugés, qu'ils soient intentionnels ou non, peuvent infiltrer même les systèmes d'IA les plus sophistiqués, perpétuant potentiellement des stéréotypes et des inégalités néfastes.

    Impact perturbateur 

    Des efforts pour lutter contre les biais dans les données et les algorithmes ont été lancés par des chercheurs de diverses organisations publiques et privées. Dans le cas du projet ImageNet, par exemple, le crowdsourcing a été utilisé pour identifier et éliminer les termes d'étiquetage qui jettent une lumière désobligeante sur certaines images. Ces mesures ont démontré qu'il est en effet possible de reconfigurer les systèmes d'IA pour qu'ils soient plus équitables.

    Cependant, certains experts affirment que la suppression des biais pourrait potentiellement rendre un ensemble de données moins efficace, en particulier lorsque plusieurs biais sont en jeu. Un ensemble de données dépourvu de certains biais peut finir par manquer d'informations suffisantes pour une utilisation efficace. Cela soulève la question de savoir à quoi ressemblerait un ensemble de données d'images vraiment diversifié et comment il pourrait être utilisé sans compromettre son utilité.

    Cette tendance souligne la nécessité d'une approche réfléchie de l'utilisation de l'IA et des technologies basées sur les données. Pour les entreprises, cela peut signifier investir dans des outils de détection des biais et promouvoir la diversité au sein des équipes techniques. Pour les gouvernements, cela pourrait impliquer la mise en œuvre de réglementations pour garantir une utilisation équitable de l'IA. 

    Implications du biais de l'IA

    Les implications plus larges du biais de l'IA peuvent inclure :

    • Les organisations sont proactives pour garantir l'équité et la non-discrimination lorsqu'elles tirent parti de l'IA pour améliorer la productivité et les performances. 
    • Avoir un éthicien en IA dans les équipes de développement pour détecter et atténuer les risques éthiques au début d'un projet. 
    • Concevoir des produits d'IA en gardant clairement à l'esprit les facteurs de diversité tels que le sexe, la race, la classe et la culture.
    • Obtenir des représentants des divers groupes qui utiliseront le produit d'IA d'une entreprise pour le tester avant sa sortie.
    • Divers services publics étant restreints à certains membres du public.
    • Certains membres du public étant incapables d'accéder ou de se qualifier pour certaines opportunités d'emploi.
    • Les organismes d'application de la loi et les professionnels ciblant injustement certains membres de la société plus que d'autres. 

    Questions à considérer

    • Êtes-vous optimiste sur le fait que la prise de décision automatisée sera équitable à l'avenir ?
    • Qu'est-ce qui vous rend le plus nerveux dans la prise de décision par l'IA ?

    Références Insight

    Les liens populaires et institutionnels suivants ont été référencés pour cet aperçu :