Předpojatost umělé inteligence: Stroje nejsou tak objektivní, jak jsme doufali

KREDIT OBRAZU:
Kredit
iStock

Předpojatost umělé inteligence: Stroje nejsou tak objektivní, jak jsme doufali

Předpojatost umělé inteligence: Stroje nejsou tak objektivní, jak jsme doufali

Text podnadpisu
Všichni souhlasí s tím, že umělá inteligence by měla být nezaujatá, ale odstranění zkreslení se ukazuje jako problematické
    • Autor:
    • jméno autora
      Quantumrun Foresight
    • Února 8, 2022

    Shrnutí statistik

    Zatímco technologie založené na datech mají příslib podpory spravedlivé společnosti, často odrážejí stejné předsudky, které lidé přechovávají, což vede k potenciální nespravedlnosti. Například předsudky v systémech umělé inteligence (AI) mohou neúmyslně zhoršit škodlivé stereotypy. Probíhají však snahy o to, aby byly systémy umělé inteligence spravedlivější, i když to vyvolává složité otázky týkající se rovnováhy mezi užitečností a spravedlností a potřeby promyšlené regulace a rozmanitosti v technických týmech.

    Obecný kontext zkreslení AI

    Doufáme, že technologie poháněné daty pomohou lidstvu vytvořit společnost, kde je spravedlnost normou pro všechny. Současná realita však ukazuje jiný obrázek. Mnoho předsudků, které mají lidé a které v minulosti vedly k nespravedlnosti, se nyní odráží v algoritmech, které řídí náš digitální svět. Tyto předsudky v systémech AI často pramení z předsudků jednotlivců, kteří tyto systémy vyvíjejí, a tyto předsudky často pronikají do jejich práce.

    Vezměme si například projekt z roku 2012 známý jako ImageNet, který se snažil crowdsourcovat označování obrázků pro školení systémů strojového učení. Velká neuronová síť natrénovaná na těchto datech byla následně schopna identifikovat objekty s působivou přesností. Při bližším zkoumání však výzkumníci objevili předsudky skryté v datech ImageNet. V jednom konkrétním případě byl algoritmus trénovaný na těchto datech zaujatý směrem k předpokladu, že všichni softwaroví programátoři jsou bílí muži.

    Tato zaujatost by mohla potenciálně vést k tomu, že ženy budou pro takové role přehlíženy, když je proces náboru automatizován. Předsudky si našly cestu do datových souborů, protože jednotlivé přidávání štítků k obrázkům „ženy“ obsahovaly další štítek, který sestával z hanlivého výrazu. Tento příklad ilustruje, jak předsudky, ať už úmyslné nebo neúmyslné, mohou infiltrovat i ty nejsofistikovanější systémy umělé inteligence a potenciálně udržovat škodlivé stereotypy a nerovnosti.

    Rušivý dopad 

    Snahy řešit zkreslení dat a algoritmů zahájili výzkumníci z různých veřejných i soukromých organizací. V případě projektu ImageNet byl například crowdsourcing použit k identifikaci a odstranění výrazů v označení, které vrhají hanlivé světlo na určité obrázky. Tato opatření ukázala, že je skutečně možné překonfigurovat systémy umělé inteligence tak, aby byly spravedlivější.

    Někteří odborníci však tvrdí, že odstranění zkreslení by mohlo potenciálně způsobit, že soubor dat bude méně účinný, zejména pokud je ve hře více zkreslení. Soubor dat zbavený určitých zkreslení může nakonec postrádat dostatek informací pro efektivní použití. Vyvstává otázka, jak by vypadal skutečně rozmanitý soubor obrazových dat a jak by se dal použít, aniž by byla ohrožena jeho užitečnost.

    Tento trend podtrhuje potřebu promyšleného přístupu k používání AI a technologií řízených daty. Pro společnosti to může znamenat investice do nástrojů pro detekci zkreslení a podporu rozmanitosti v technologických týmech. Pro vlády by to mohlo zahrnovat prováděcí předpisy k zajištění spravedlivého používání AI. 

    Důsledky zkreslení AI

    Širší důsledky zkreslení AI mohou zahrnovat:

    • Organizace proaktivní při zajišťování spravedlnosti a nediskriminace, protože využívají umělou inteligenci ke zlepšení produktivity a výkonu. 
    • Mít ve vývojových týmech etika umělé inteligence, který odhalí a zmírní etická rizika v rané fázi projektu. 
    • Při navrhování produktů s umělou inteligencí s ohledem na faktory rozmanitosti, jako je pohlaví, rasa, třída a kultura, je jasné, že budete mít na paměti.
    • Získání zástupců z různých skupin, kteří budou používat produkt AI společnosti k testování před jeho vydáním.
    • Určitým členům veřejnosti jsou omezeny různé veřejné služby.
    • Někteří členové veřejnosti nemohou získat přístup k určitým pracovním příležitostem nebo se na ně kvalifikovat.
    • Orgány činné v trestním řízení a odborníci se nespravedlivě zaměřují na některé členy společnosti více než na ostatní. 

    Otázky k zamyšlení

    • Jste optimista, že automatizované rozhodování bude v budoucnu spravedlivé?
    • Co vás na rozhodování AI nejvíce znervózňuje?

    Statistikové reference

    Následující populární a institucionální odkazy byly uvedeny pro tento náhled: