AI TRISM: AI eetiliseks jäämise tagamine

PILDIKrediit:
Pildikrediit
iStock

AI TRISM: AI eetiliseks jäämise tagamine

AI TRISM: AI eetiliseks jäämise tagamine

Alapealkirja tekst
Ettevõtteid kutsutakse üles looma standardeid ja poliitikaid, mis määratlevad selgelt tehisintellekti piirid.
    • Autor:
    • autori nimi
      Quantumrun Foresight
    • Oktoober 20, 2023

    Ülevaate kokkuvõte

    2022. aastal tutvustas uuringufirma Gartner AI TRISM-i, mis tähistab AI usalduse, riski ja turvalisuse haldust, et tagada tehisintellekti mudelite juhtimine ja usaldusväärsus. Raamistik koosneb viiest sambast: seletatavus, mudeli toimingud, andmete anomaalia tuvastamine, vastupidavus võistlevatele rünnakutele ja andmekaitse. Aruandes rõhutatakse, et tehisintellekti riskide halb juhtimine võib kaasa tuua märkimisväärseid kaotusi ja turvarikkumisi. AI TRISM-i juurutamiseks on vaja funktsionaalset meeskonda juriidilise, vastavuse, IT- ja andmeanalüütika valdkonnas. Raamistiku eesmärk on luua vastutustundliku tehisintellekti kultuur, mis keskendub eetilistele ja õiguslikele probleemidele ning tõenäoliselt mõjutab tehisintellekti töölevõtmise suundumusi, valitsuse eeskirju ja eetilisi kaalutlusi.

    AI TRISM kontekst

    Gartneri sõnul on AI TriSM-il viis sammast: seletatavus, mudelioperatsioonid (ModelOps), andmete anomaalia tuvastamine, vastupanuvõime rünnakutele ja andmekaitse. Gartneri prognooside põhjal on neid sambaid rakendavate organisatsioonide tunnistajaks 50. aastaks 2026 protsendiline tõuge oma tehisintellekti mudelite toimivusele seoses kasutuselevõtuga, ärieesmärkidega ja kasutajate heakskiiduga. Lisaks moodustavad tehisintellektiga töötavad masinad 20 protsenti maailma tööjõust. ja annab 40. aastaks 2028 protsenti üldisest majanduse tootlikkusest.

    Gartneri uuringu tulemused näitavad, et paljud organisatsioonid on rakendanud sadu või tuhandeid tehisintellekti mudeleid, mida IT-juhid ei suuda mõista ega tõlgendada. Organisatsioonid, kes ei juhi tehisintellektiga seotud riske adekvaatselt, on märkimisväärselt altimad ebasoodsate tulemuste ja rikkumiste jaoks. Mudelid ei pruugi toimida nii, nagu ette nähtud, põhjustades turvalisuse ja privaatsuse rikkumisi ning rahalist, individuaalset ja mainekahjustust. Tehisintellekti ebatäpne rakendamine võib põhjustada ka organisatsioonide valesid äriotsuseid.

    AI TRISM-i edukaks rakendamiseks on vaja ristfunktsionaalset meeskonda, mis koosneb juriidilistest, vastavus-, turva-, IT- ja andmeanalüütika töötajatest. Optimaalseid tulemusi annab ka spetsiaalse meeskonna või töörühma loomine, kus on iga AI projektiga seotud ärivaldkonna esindajad. Samuti on oluline tagada, et iga meeskonnaliige mõistaks selgelt oma rolle ja kohustusi, samuti AI TRISM algatuse eesmärke ja eesmärke.

    Häiriv mõju

    AI turvaliseks muutmiseks soovitab Gartner mitmeid olulisi samme. Esiteks peavad organisatsioonid mõistma tehisintellektiga seotud võimalikke riske ja neid maandada. See pingutus nõuab põhjalikku riskianalüüsi, mis ei arvesta mitte ainult tehnoloogiat ennast, vaid ka selle mõju inimestele, protsessidele ja keskkonnale.

    Teiseks peavad organisatsioonid investeerima tehisintellekti juhtimisse, mis hõlmab tehisintellekti riskide juhtimise poliitikaid, protseduure ja kontrolle. See strateegia hõlmab selle tagamist, et tehisintellektisüsteemid on läbipaistvad, seletatavad, vastutustundlikud ning vastavad asjakohastele seadustele ja määrustele. Lisaks on tehisintellekti mudelite pidev jälgimine ja auditeerimine ülioluline, et tuvastada ja maandada võimalikke riske, mis aja jooksul võivad tekkida. Lõpuks peavad organisatsioonid arendama tehisintellekti ohutuse kultuuri, edendades töötajate ja sidusrühmade teadlikkust, haridust ja koolitust. Need sammud hõlmavad koolitust tehisintellekti eetilise kasutamise, tehisintellektiga seotud riskide ning probleemide või murede tuvastamise ja nendest teatamise kohta. 

    Need jõupingutused toovad tõenäoliselt kaasa rohkem ettevõtteid, kes loovad oma vastutustundliku AI osakonnad. See kujunev juhtimisraamistik käsitleb tehisintellektiga seotud õiguslikke ja eetilisi takistusi, dokumenteerides organisatsioonide lähenemise neile. Raamistik ja sellega seotud algatused soovivad kõrvaldada ebaselgused, et vältida soovimatuid negatiivseid tagajärgi. Vastutustundliku tehisintellekti raamistiku põhimõtted keskenduvad tehisintellekti kujundamisele, arendamisele ja kasutamisele viisil, mis toob kasu töötajatele, pakub väärtust klientidele ja mõjutab ühiskonda positiivselt.

    AI TRISM-i tagajärjed

    AI TRISM-i laiemad tagajärjed võivad hõlmata järgmist: 

    • Kuna AI TRISM muutub üha olulisemaks, peavad ettevõtted palkama rohkem kvalifitseeritud töötajaid, kes on selles valdkonnas teadlikud, näiteks tehisintellekti turvaanalüütikuid, riskijuhte ja eetikuid.
    • Uued eetilised ja moraalsed kaalutlused, nagu läbipaistvuse, õigluse ja vastutuse vajadus tehisintellektisüsteemide kasutamisel.
    • AI-ga täiustatud uuendused, mis on turvalised, usaldusväärsed ja usaldusväärsed.
    • Suurenenud surve valitsuse regulatsioonidele, et kaitsta üksikisikuid ja organisatsioone tehisintellektisüsteemidega seotud riskide eest.
    • Suurem tähelepanu sellele, et tehisintellektisüsteemid ei oleks teatud rühmade või üksikisikute suhtes kallutatud.
    • Uued võimalused neile, kellel on tehisintellekti oskused ja mis võivad potentsiaalselt tõrjuda neid, kellel neid pole.
    • Suurem energiatarve ja andmesalvestusmaht pidevalt uuendatavate treeningandmete jaoks.
    • Rohkem ettevõtteid trahvitakse ülemaailmsete vastutustundliku tehisintellekti standardite mittejärgimise eest.

    Küsimused, mida kaaluda

    • Kui töötate tehisintellektiga, siis kuidas koolitab teie ettevõte oma algoritme eetiliseks?
    • Millised on vastutustundlike tehisintellektisüsteemide loomise väljakutsed?

    Insight viited

    Selle ülevaate jaoks viidati järgmistele populaarsetele ja institutsionaalsetele linkidele: