AI TRiSM: Se till att AI förblir etiskt

BILDKREDIT:
Bild kredit
iStock

AI TRiSM: Se till att AI förblir etiskt

AI TRiSM: Se till att AI förblir etiskt

Underrubrik text
Företag uppmanas att skapa standarder och policyer som tydligt definierar gränserna för artificiell intelligens.
    • Författare:
    • författarnamn
      Quantumrun Framsyn
    • Oktober 20, 2023

    Insiktssammanfattning

    2022 introducerade undersökningsföretaget Gartner AI TRiSM, som står för AI Trust, Risk, and Security Management, för att säkerställa styrningen och tillförlitligheten av AI-modeller. Ramverket består av fem pelare: förklarabarhet, modelloperationer, upptäckt av dataavvikelser, motstånd mot kontradiktoriska attacker och dataskydd. Rapporten visar att dålig hantering av AI-risker kan leda till betydande förluster och säkerhetsintrång. Implementering av AI TRiSM kräver ett tvärfunktionellt team från juridik, efterlevnad, IT och dataanalys. Ramverket syftar till att bygga en kultur av "Responsible AI", med fokus på etiska och juridiska problem, och kommer sannolikt att påverka anställningstrender, statliga regleringar och etiska överväganden inom AI.

    AI TRiSM sammanhang

    Enligt Gartner finns det fem pelare för AI TriSM: förklarabarhet, modelloperationer (ModelOps), upptäckt av dataavvikelser, motstånd mot motstånd mot attacker och dataskydd. Baserat på Gartners prognoser kommer organisationer som implementerar dessa pelare att se en 50-procentig ökning av deras AI-modellprestanda i förhållande till antagande, affärsmål och användaracceptans till 2026. Dessutom kommer AI-drivna maskiner att utgöra 20 procent av världens arbetsstyrka och bidra med 40 procent av den totala ekonomiska produktiviteten till 2028.

    Resultaten av Gartners undersökning tyder på att många organisationer har implementerat hundratals eller tusentals AI-modeller som IT-chefer inte kan förstå eller tolka. Organisationer som inte hanterar AI-relaterade risker på ett adekvat sätt är betydligt mer benägna att stöta på ogynnsamma resultat och intrång. Modellerna kanske inte fungerar som avsett, vilket leder till säkerhets- och integritetsintrång samt ekonomisk, individuell och anseende skada. Felaktig implementering av AI kan också få organisationer att fatta missriktade affärsbeslut.

    För att framgångsrikt implementera AI TRiSM krävs ett tvärfunktionellt team av juridisk, efterlevnads-, säkerhets-, IT- och dataanalyspersonal. Att etablera ett dedikerat team eller arbetsgrupp med lämplig representation från varje affärsområde som är involverat i AI-projektet kommer också att ge optimala resultat. Det är också viktigt att säkerställa att varje teammedlem tydligt förstår sina roller och ansvarsområden, såväl som målen och målen för AI TRiSM-initiativet.

    Störande inverkan

    För att göra AI säker rekommenderar Gartner flera viktiga steg. Först måste organisationer förstå de potentiella riskerna med AI och hur man kan minska dem. Denna insats kräver en omfattande riskbedömning som inte bara tar hänsyn till själva tekniken utan också dess påverkan på människor, processer och miljön.

    För det andra måste organisationer investera i AI-styrning, vilket inkluderar policyer, procedurer och kontroller för att hantera AI-risker. Denna strategi inkluderar att se till att AI-system är transparenta, förklarliga, ansvarsfulla och följer relevanta lagar och förordningar. Dessutom är kontinuerlig övervakning och revision av AI-modeller avgörande för att identifiera och mildra eventuella risker som kan uppstå över tiden. Slutligen måste organisationer utveckla en kultur av AI-säkerhet, främja medvetenhet, utbildning och utbildning bland anställda och intressenter. Dessa steg inkluderar utbildning om den etiska användningen av AI, riskerna förknippade med AI och hur man identifierar och rapporterar problem eller problem. 

    Dessa ansträngningar kommer sannolikt att resultera i att fler företag bygger sina ansvariga AI-avdelningar. Detta framväxande ramverk för styrning tar itu med de juridiska och etiska hindren relaterade till AI genom att dokumentera hur organisationer närmar sig dem. Ramverket och dess tillhörande initiativ vill eliminera oklarheter för att förhindra oavsiktliga negativa konsekvenser. Principerna för ett ramverk för ansvarsfull AI fokuserar på att designa, utveckla och använda AI på ett sätt som gynnar de anställda, ger värde till kunderna och påverkar samhället positivt.

    Implikationer av AI TRiSM

    Vidare implikationer av AI TRiSM kan inkludera: 

    • I takt med att AI TRiSM blir allt viktigare kommer företag att behöva anställa fler kvalificerade arbetare med kunskap inom detta område, såsom AI-säkerhetsanalytiker, riskhanterare och etiker.
    • Nya etiska och moraliska överväganden, såsom behovet av transparens, rättvisa och ansvarsskyldighet vid användning av AI-system.
    • AI-förstärkta innovationer som är säkra, pålitliga och pålitliga.
    • Ökat tryck för statlig reglering för att skydda individer och organisationer från risker förknippade med AI-system.
    • Ett större fokus på att säkerställa att AI-system inte är partiska mot särskilda grupper eller individer.
    • Nya möjligheter för dem med AI-kunskaper och potentiellt ersätta dem utan dem.
    • Ökad energiförbrukning och datalagringskapacitet för ständigt uppdaterad träningsdata.
    • Fler företag bötfälls för att de inte har antagit globala standarder för ansvarsfull AI.

    Frågor att överväga

    • Om du arbetar med AI, hur tränar ditt företag sina algoritmer för att vara etiska?
    • Vilka är utmaningarna med att bygga ansvarsfulla AI-system?

    Insiktsreferenser

    Följande populära och institutionella länkar hänvisades till för denna insikt: