AI TRiSM: Zapewnienie, że sztuczna inteligencja pozostanie etyczna

KREDYT WZROKU:
Image credit
iStock

AI TRiSM: Zapewnienie, że sztuczna inteligencja pozostanie etyczna

AI TRiSM: Zapewnienie, że sztuczna inteligencja pozostanie etyczna

Tekst podtytułu
Wzywa się firmy do tworzenia standardów i zasad, które jasno określają granice sztucznej inteligencji.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 20 października 2023 r.

    Podsumowanie spostrzeżeń

    W 2022 r. firma badawcza Gartner wprowadziła AI TRiSM, skrót od AI Trust, Risk i Security Management, aby zapewnić zarządzanie i niezawodność modeli sztucznej inteligencji. Struktura składa się z pięciu filarów: wyjaśnialności, operacji modelowych, wykrywania anomalii danych, odporności na ataki kontradyktoryjne i ochrony danych. W raporcie podkreślono, że złe zarządzanie ryzykiem związanym ze sztuczną inteligencją może prowadzić do znacznych strat i naruszeń bezpieczeństwa. Wdrożenie AI TRiSM wymaga wielofunkcyjnego zespołu z działów prawnych, zgodności, IT i analityki danych. Ramy mają na celu budowanie kultury „odpowiedzialnej sztucznej inteligencji”, koncentrującej się na kwestiach etycznych i prawnych, i prawdopodobnie będą miały wpływ na trendy w zatrudnianiu, regulacje rządowe i względy etyczne dotyczące sztucznej inteligencji.

    Kontekst AI TRiSM

    Według Gartnera AI TriSM składa się z pięciu filarów: wyjaśnialności, operacji modelowych (ModelOps), wykrywania anomalii w danych, odporności na ataki kontradyktoryjne i ochrony danych. Z prognoz firmy Gartner wynika, że ​​do 50 r. organizacje, które wdrożą te filary, odnotują 2026-procentowy wzrost wydajności swoich modeli sztucznej inteligencji pod względem wdrożenia, celów biznesowych i akceptacji użytkowników. Ponadto maszyny napędzane sztuczną inteligencją będą stanowić 20 procent światowej siły roboczej i wnieść do 40 r. 2028% ogólnej produktywności gospodarczej.

    Wyniki badania Gartnera sugerują, że wiele organizacji wdrożyło setki lub tysiące modeli sztucznej inteligencji, których menedżerowie IT nie są w stanie zrozumieć ani zinterpretować. Organizacje, które nie zarządzają odpowiednio ryzykami związanymi ze sztuczną inteligencją, są znacznie bardziej podatne na niekorzystne skutki i naruszenia. Modele mogą nie działać zgodnie z przeznaczeniem, co może prowadzić do naruszeń bezpieczeństwa i prywatności oraz szkód finansowych, osobistych i reputacyjnych. Niedokładne wdrożenie sztucznej inteligencji może również spowodować, że organizacje będą podejmować błędne decyzje biznesowe.

    Aby pomyślnie wdrożyć AI TRiSM, wymagany jest wielofunkcyjny zespół składający się z personelu prawnego, ds. zgodności, bezpieczeństwa, IT i analityki danych. Utworzenie dedykowanego zespołu lub grupy zadaniowej z odpowiednią reprezentacją każdego obszaru biznesowego zaangażowanego w projekt AI również przyniesie optymalne rezultaty. Niezbędne jest również zapewnienie, aby każdy członek zespołu dobrze rozumiał swoje role i obowiązki, a także cele i zadania inicjatywy AI TRiSM.

    Zakłócający wpływ

    Aby zapewnić bezpieczeństwo sztucznej inteligencji, Gartner zaleca kilka kluczowych kroków. Po pierwsze, organizacje muszą zrozumieć potencjalne ryzyko związane ze sztuczną inteligencją i dowiedzieć się, jak je złagodzić. Wysiłek ten wymaga kompleksowej oceny ryzyka, która uwzględnia nie tylko samą technologię, ale także jej wpływ na ludzi, procesy i środowisko.

    Po drugie, organizacje muszą inwestować w zarządzanie sztuczną inteligencją, które obejmuje zasady, procedury i mechanizmy kontrolne służące zarządzaniu ryzykiem związanym ze sztuczną inteligencją. Strategia ta obejmuje zapewnienie, że systemy sztucznej inteligencji są przejrzyste, łatwe do wyjaśnienia, rozliczalne i zgodne z odpowiednimi przepisami i regulacjami. Ponadto ciągłe monitorowanie i audytowanie modeli sztucznej inteligencji ma kluczowe znaczenie dla identyfikowania i ograniczania wszelkich potencjalnych zagrożeń, które mogą pojawić się z czasem. Wreszcie organizacje muszą rozwijać kulturę bezpieczeństwa sztucznej inteligencji, promując świadomość, edukację i szkolenia wśród pracowników i interesariuszy. Kroki te obejmują szkolenie w zakresie etycznego korzystania ze sztucznej inteligencji, zagrożeń związanych ze sztuczną inteligencją oraz sposobów identyfikowania i zgłaszania problemów lub wątpliwości. 

    Wysiłki te prawdopodobnie spowodują, że więcej firm zbuduje swoje działy odpowiedzialnej sztucznej inteligencji. Te wyłaniające się ramy zarządzania usuwają przeszkody prawne i etyczne związane ze sztuczną inteligencją, dokumentując, w jaki sposób organizacje do nich podchodzą. Ramy i powiązane z nimi inicjatywy mają na celu wyeliminowanie niejasności, aby zapobiec niezamierzonym negatywnym konsekwencjom. Zasady odpowiedzialnej sztucznej inteligencji skupiają się na projektowaniu, rozwijaniu i wykorzystywaniu sztucznej inteligencji w sposób, który przynosi korzyści pracownikom, zapewnia wartość klientom i pozytywnie wpływa na społeczeństwo.

    Implikacje AI TRiSM

    Szersze implikacje AI TRiSM mogą obejmować: 

    • Ponieważ sztuczna inteligencja TRiSM staje się coraz ważniejsza, firmy będą musiały zatrudniać bardziej wykwalifikowanych pracowników posiadających wiedzę w tej dziedzinie, takich jak analitycy bezpieczeństwa AI, menedżerowie ds. ryzyka i etycy.
    • Nowe względy etyczne i moralne, takie jak potrzeba przejrzystości, uczciwości i odpowiedzialności w korzystaniu z systemów sztucznej inteligencji.
    • Innowacje wspomagane sztuczną inteligencją, które są bezpieczne, godne zaufania i niezawodne.
    • Zwiększona presja na regulacje rządowe mające na celu ochronę osób i organizacji przed zagrożeniami związanymi z systemami sztucznej inteligencji.
    • Większy nacisk na zapewnienie, że systemy sztucznej inteligencji nie są uprzedzone wobec określonych grup lub osób.
    • Nowe możliwości dla osób posiadających umiejętności w zakresie sztucznej inteligencji i potencjalne wyparcie osób bez nich.
    • Zwiększone zużycie energii i pojemność przechowywania danych w celu stale aktualizowanych danych treningowych.
    • Kolejne firmy ukarane karami za niezastosowanie globalnych standardów odpowiedzialnej sztucznej inteligencji.

    Pytania do rozważenia

    • Jeśli pracujesz w AI, w jaki sposób Twoja firma szkoli swoje algorytmy, aby były etyczne?
    • Jakie wyzwania wiążą się z budowaniem odpowiedzialnych systemów AI?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: