AI TRiSM: Zapewnienie, że sztuczna inteligencja pozostanie etyczna
AI TRiSM: Zapewnienie, że sztuczna inteligencja pozostanie etyczna
AI TRiSM: Zapewnienie, że sztuczna inteligencja pozostanie etyczna
- Autor:
- 20 października 2023 r.
Podsumowanie spostrzeżeń
W 2022 r. firma badawcza Gartner wprowadziła AI TRiSM, skrót od AI Trust, Risk i Security Management, aby zapewnić zarządzanie i niezawodność modeli sztucznej inteligencji. Struktura składa się z pięciu filarów: wyjaśnialności, operacji modelowych, wykrywania anomalii danych, odporności na ataki kontradyktoryjne i ochrony danych. W raporcie podkreślono, że złe zarządzanie ryzykiem związanym ze sztuczną inteligencją może prowadzić do znacznych strat i naruszeń bezpieczeństwa. Wdrożenie AI TRiSM wymaga wielofunkcyjnego zespołu z działów prawnych, zgodności, IT i analityki danych. Ramy mają na celu budowanie kultury „odpowiedzialnej sztucznej inteligencji”, koncentrującej się na kwestiach etycznych i prawnych, i prawdopodobnie będą miały wpływ na trendy w zatrudnianiu, regulacje rządowe i względy etyczne dotyczące sztucznej inteligencji.
Kontekst AI TRiSM
Według Gartnera AI TriSM składa się z pięciu filarów: wyjaśnialności, operacji modelowych (ModelOps), wykrywania anomalii w danych, odporności na ataki kontradyktoryjne i ochrony danych. Z prognoz firmy Gartner wynika, że do 50 r. organizacje, które wdrożą te filary, odnotują 2026-procentowy wzrost wydajności swoich modeli sztucznej inteligencji pod względem wdrożenia, celów biznesowych i akceptacji użytkowników. Ponadto maszyny napędzane sztuczną inteligencją będą stanowić 20 procent światowej siły roboczej i wnieść do 40 r. 2028% ogólnej produktywności gospodarczej.
Wyniki badania Gartnera sugerują, że wiele organizacji wdrożyło setki lub tysiące modeli sztucznej inteligencji, których menedżerowie IT nie są w stanie zrozumieć ani zinterpretować. Organizacje, które nie zarządzają odpowiednio ryzykami związanymi ze sztuczną inteligencją, są znacznie bardziej podatne na niekorzystne skutki i naruszenia. Modele mogą nie działać zgodnie z przeznaczeniem, co może prowadzić do naruszeń bezpieczeństwa i prywatności oraz szkód finansowych, osobistych i reputacyjnych. Niedokładne wdrożenie sztucznej inteligencji może również spowodować, że organizacje będą podejmować błędne decyzje biznesowe.
Aby pomyślnie wdrożyć AI TRiSM, wymagany jest wielofunkcyjny zespół składający się z personelu prawnego, ds. zgodności, bezpieczeństwa, IT i analityki danych. Utworzenie dedykowanego zespołu lub grupy zadaniowej z odpowiednią reprezentacją każdego obszaru biznesowego zaangażowanego w projekt AI również przyniesie optymalne rezultaty. Niezbędne jest również zapewnienie, aby każdy członek zespołu dobrze rozumiał swoje role i obowiązki, a także cele i zadania inicjatywy AI TRiSM.
Zakłócający wpływ
Aby zapewnić bezpieczeństwo sztucznej inteligencji, Gartner zaleca kilka kluczowych kroków. Po pierwsze, organizacje muszą zrozumieć potencjalne ryzyko związane ze sztuczną inteligencją i dowiedzieć się, jak je złagodzić. Wysiłek ten wymaga kompleksowej oceny ryzyka, która uwzględnia nie tylko samą technologię, ale także jej wpływ na ludzi, procesy i środowisko.
Po drugie, organizacje muszą inwestować w zarządzanie sztuczną inteligencją, które obejmuje zasady, procedury i mechanizmy kontrolne służące zarządzaniu ryzykiem związanym ze sztuczną inteligencją. Strategia ta obejmuje zapewnienie, że systemy sztucznej inteligencji są przejrzyste, łatwe do wyjaśnienia, rozliczalne i zgodne z odpowiednimi przepisami i regulacjami. Ponadto ciągłe monitorowanie i audytowanie modeli sztucznej inteligencji ma kluczowe znaczenie dla identyfikowania i ograniczania wszelkich potencjalnych zagrożeń, które mogą pojawić się z czasem. Wreszcie organizacje muszą rozwijać kulturę bezpieczeństwa sztucznej inteligencji, promując świadomość, edukację i szkolenia wśród pracowników i interesariuszy. Kroki te obejmują szkolenie w zakresie etycznego korzystania ze sztucznej inteligencji, zagrożeń związanych ze sztuczną inteligencją oraz sposobów identyfikowania i zgłaszania problemów lub wątpliwości.
Wysiłki te prawdopodobnie spowodują, że więcej firm zbuduje swoje działy odpowiedzialnej sztucznej inteligencji. Te wyłaniające się ramy zarządzania usuwają przeszkody prawne i etyczne związane ze sztuczną inteligencją, dokumentując, w jaki sposób organizacje do nich podchodzą. Ramy i powiązane z nimi inicjatywy mają na celu wyeliminowanie niejasności, aby zapobiec niezamierzonym negatywnym konsekwencjom. Zasady odpowiedzialnej sztucznej inteligencji skupiają się na projektowaniu, rozwijaniu i wykorzystywaniu sztucznej inteligencji w sposób, który przynosi korzyści pracownikom, zapewnia wartość klientom i pozytywnie wpływa na społeczeństwo.
Implikacje AI TRiSM
Szersze implikacje AI TRiSM mogą obejmować:
- Ponieważ sztuczna inteligencja TRiSM staje się coraz ważniejsza, firmy będą musiały zatrudniać bardziej wykwalifikowanych pracowników posiadających wiedzę w tej dziedzinie, takich jak analitycy bezpieczeństwa AI, menedżerowie ds. ryzyka i etycy.
- Nowe względy etyczne i moralne, takie jak potrzeba przejrzystości, uczciwości i odpowiedzialności w korzystaniu z systemów sztucznej inteligencji.
- Innowacje wspomagane sztuczną inteligencją, które są bezpieczne, godne zaufania i niezawodne.
- Zwiększona presja na regulacje rządowe mające na celu ochronę osób i organizacji przed zagrożeniami związanymi z systemami sztucznej inteligencji.
- Większy nacisk na zapewnienie, że systemy sztucznej inteligencji nie są uprzedzone wobec określonych grup lub osób.
- Nowe możliwości dla osób posiadających umiejętności w zakresie sztucznej inteligencji i potencjalne wyparcie osób bez nich.
- Zwiększone zużycie energii i pojemność przechowywania danych w celu stale aktualizowanych danych treningowych.
- Kolejne firmy ukarane karami za niezastosowanie globalnych standardów odpowiedzialnej sztucznej inteligencji.
Pytania do rozważenia
- Jeśli pracujesz w AI, w jaki sposób Twoja firma szkoli swoje algorytmy, aby były etyczne?
- Jakie wyzwania wiążą się z budowaniem odpowiedzialnych systemów AI?
Referencje informacyjne
W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: