Błąd sztucznej inteligencji: maszyny nie są tak obiektywne, jak się spodziewaliśmy

KREDYT WZROKU:
Image credit
iStock

Błąd sztucznej inteligencji: maszyny nie są tak obiektywne, jak się spodziewaliśmy

Błąd sztucznej inteligencji: maszyny nie są tak obiektywne, jak się spodziewaliśmy

Tekst podtytułu
Wszyscy zgadzają się, że sztuczna inteligencja powinna być bezstronna, ale usuwanie uprzedzeń okazuje się problematyczne
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 8 lutego 2022 r.

    Podsumowanie spostrzeżeń

    Chociaż technologie oparte na danych obiecują wspieranie sprawiedliwego społeczeństwa, często odzwierciedlają te same uprzedzenia, które żywią ludzie, co prowadzi do potencjalnych niesprawiedliwości. Na przykład uprzedzenia w systemach sztucznej inteligencji (AI) mogą nieumyślnie pogorszyć szkodliwe stereotypy. Trwają jednak starania, aby systemy sztucznej inteligencji były bardziej sprawiedliwe, choć rodzi to złożone pytania dotyczące równowagi między użytecznością a uczciwością oraz potrzeby przemyślanych regulacji i różnorodności w zespołach technicznych.

    Ogólny kontekst uprzedzeń AI

    Mamy nadzieję, że technologie oparte na danych pomogą ludzkości w stworzeniu społeczeństwa, w którym sprawiedliwość jest normą dla wszystkich. Obecna rzeczywistość maluje jednak inny obraz. Wiele ludzkich uprzedzeń, które w przeszłości doprowadziły do ​​niesprawiedliwości, znajduje obecnie odzwierciedlenie w algorytmach rządzących naszym cyfrowym światem. Te uprzedzenia w systemach sztucznej inteligencji często wynikają z uprzedzeń osób, które opracowują te systemy, i te uprzedzenia często przenikają do ich pracy.

    Weźmy na przykład projekt z 2012 roku znany jako ImageNet, który miał na celu pozyskanie etykietowania obrazów w celu szkolenia systemów uczenia maszynowego. Duża sieć neuronowa przeszkolona na podstawie tych danych była następnie w stanie identyfikować obiekty z imponującą dokładnością. Jednak po bliższym przyjrzeniu się badacze odkryli błędy ukryte w danych ImageNet. W jednym konkretnym przypadku algorytm wytrenowany na tych danych był obciążony założeniem, że wszyscy programiści to biali ludzie.

    To uprzedzenie może potencjalnie spowodować, że kobiety zostaną pominięte na takich stanowiskach, gdy proces rekrutacji jest zautomatyzowany. Błędy trafiły do ​​​​zbiorów danych, ponieważ osoba dodająca etykiety do zdjęć „kobiety” zawierała dodatkową etykietę składającą się z obraźliwego terminu. Ten przykład ilustruje, w jaki sposób uprzedzenia, zamierzone lub niezamierzone, mogą przeniknąć nawet do najbardziej wyrafinowanych systemów sztucznej inteligencji, potencjalnie utrwalając szkodliwe stereotypy i nierówności.

    Zakłócający wpływ 

    Wysiłki mające na celu wyeliminowanie stronniczości danych i algorytmów zostały zainicjowane przez badaczy z różnych organizacji publicznych i prywatnych. Na przykład w przypadku projektu ImageNet crowdsourcing został wykorzystany do zidentyfikowania i wyeliminowania terminów etykietujących, które rzucają obraźliwe światło na niektóre obrazy. Środki te pokazały, że rzeczywiście możliwa jest rekonfiguracja systemów sztucznej inteligencji, aby były bardziej sprawiedliwe.

    Jednak niektórzy eksperci twierdzą, że usunięcie uprzedzeń może potencjalnie sprawić, że zestaw danych będzie mniej skuteczny, zwłaszcza gdy w grę wchodzi wiele uprzedzeń. W zbiorze danych pozbawionym pewnych uprzedzeń może brakować informacji wystarczających do efektywnego wykorzystania. Rodzi to pytanie, jak wyglądałby naprawdę zróżnicowany zestaw danych obrazu i jak można go wykorzystać bez uszczerbku dla jego użyteczności.

    Trend ten podkreśla potrzebę przemyślanego podejścia do wykorzystania sztucznej inteligencji i technologii opartych na danych. Dla firm może to oznaczać inwestowanie w narzędzia do wykrywania uprzedzeń i promowanie różnorodności w zespołach technicznych. W przypadku rządów może to obejmować przepisy wykonawcze zapewniające uczciwe korzystanie ze sztucznej inteligencji. 

    Implikacje stronniczości AI

    Szersze implikacje stronniczości sztucznej inteligencji mogą obejmować:

    • Organizacje proaktywne w zapewnianiu uczciwości i niedyskryminacji, wykorzystując sztuczną inteligencję do poprawy produktywności i wydajności. 
    • Posiadanie etyka AI w zespołach programistycznych w celu wykrywania i ograniczania zagrożeń etycznych na wczesnym etapie projektu. 
    • Projektowanie produktów AI z wyraźnym uwzględnieniem czynników różnorodności, takich jak płeć, rasa, klasa i kultura.
    • Pozyskiwanie przedstawicieli różnych grup, które będą korzystać z produktów AI firmy, aby przetestować go przed jego wydaniem.
    • Różne usługi publiczne są ograniczone do niektórych członków społeczeństwa.
    • Niektórzy członkowie społeczeństwa nie mogą uzyskać dostępu lub zakwalifikować się do pewnych ofert pracy.
    • Organy ścigania i specjaliści nieuczciwie atakują niektórych członków społeczeństwa bardziej niż innych. 

    Pytania do rozważenia

    • Czy masz nadzieję, że zautomatyzowane podejmowanie decyzji będzie sprawiedliwe w przyszłości?
    • Co z podejmowaniem decyzji przez sztuczną inteligencję sprawia, że ​​jesteś najbardziej nerwowy?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: