AI TRISM: nodrošināt, ka AI joprojām ir ētisks

ATTĒLA KREDĪTS:
Attēls kredīts
iStock

AI TRISM: nodrošināt, ka AI joprojām ir ētisks

AI TRISM: nodrošināt, ka AI joprojām ir ētisks

Apakšvirsraksta teksts
Uzņēmumi tiek mudināti izveidot standartus un politikas, kas skaidri nosaka mākslīgā intelekta robežas.
    • Autors:
    • Autors nosaukums
      Quantumrun Foresight
    • Oktobris 20, 2023

    Ieskata kopsavilkums

    2022. gadā pētniecības uzņēmums Gartner ieviesa AI TRISM — AI uzticības, riska un drošības pārvaldību, lai nodrošinātu AI modeļu pārvaldību un uzticamību. Ietvars sastāv no pieciem pīlāriem: izskaidrojamība, modeļa darbības, datu anomāliju noteikšana, izturība pret pretinieku uzbrukumiem un datu aizsardzība. Ziņojumā uzsvērts, ka slikta mākslīgā intelekta risku pārvaldība var radīt ievērojamus zaudējumus un drošības pārkāpumus. Lai ieviestu AI TRISM, ir nepieciešama starpfunkcionāla komanda no juridiskās, atbilstības, IT un datu analīzes. Sistēmas mērķis ir veidot "atbildīga AI" kultūru, koncentrējoties uz ētiskiem un juridiskiem apsvērumiem, un tas, iespējams, ietekmēs darbā pieņemšanas tendences, valdības noteikumus un ētiskos apsvērumus AI.

    AI TRISM konteksts

    Saskaņā ar Gartner teikto, AI TriSM ir pieci pīlāri: izskaidrojamība, modeļa darbības (ModelOps), datu anomāliju noteikšana, pretestība pretuzbrukumiem un datu aizsardzība. Pamatojoties uz Gartnera prognozēm, organizācijas, kas ieviesīs šos pīlārus, līdz 50. gadam pieredzēs savu AI modeļa veiktspējas pieaugumu par 2026 procentiem saistībā ar pieņemšanu, uzņēmējdarbības mērķiem un lietotāju piekrišanu. Turklāt ar AI darbināmas iekārtas veidos 20 procentus no pasaules darbaspēka. un līdz 40. gadam nodrošināt 2028 procentus no kopējās ekonomikas produktivitātes.

    Gartnera aptaujas rezultāti liecina, ka daudzas organizācijas ir ieviesušas simtiem vai tūkstošiem AI modeļu, kurus IT vadītāji nevar saprast vai interpretēt. Organizācijas, kas pienācīgi nepārvalda ar AI saistītus riskus, ir ievērojami vairāk pakļautas nelabvēlīgiem rezultātiem un pārkāpumiem. Modeļi var nedarboties, kā paredzēts, izraisot drošības un privātuma pārkāpumus, kā arī finansiālu, individuālu un reputācijas kaitējumu. Neprecīza AI ieviešana var arī likt organizācijām pieņemt nepareizus biznesa lēmumus.

    Lai veiksmīgi ieviestu AI TRISM, ir nepieciešama starpfunkcionāla juridiskā, atbilstības, drošības, IT un datu analīzes personāla komanda. Optimālus rezultātus dos arī īpašas komandas vai darba grupas izveide ar pienācīgu pārstāvniecību no katras AI projektā iesaistītās uzņēmējdarbības jomas. Ir svarīgi arī nodrošināt, lai katrs komandas loceklis skaidri saprastu savas lomas un pienākumus, kā arī AI TRISM iniciatīvas mērķus un uzdevumus.

    Traucējoša ietekme

    Lai padarītu mākslīgo intelektu drošu, Gartner iesaka vairākas svarīgas darbības. Pirmkārt, organizācijām ir jāsaprot iespējamie riski, kas saistīti ar AI, un kā tos mazināt. Šiem centieniem ir nepieciešams visaptverošs riska novērtējums, kurā ņemta vērā ne tikai pati tehnoloģija, bet arī tās ietekme uz cilvēkiem, procesiem un vidi.

    Otrkārt, organizācijām ir jāiegulda AI pārvaldībā, kas ietver politiku, procedūras un kontroli AI risku pārvaldībai. Šī stratēģija paredz nodrošināt, ka AI sistēmas ir pārredzamas, izskaidrojamas, atbildīgas un atbilst attiecīgajiem likumiem un noteikumiem. Turklāt pastāvīga AI modeļu uzraudzība un audits ir ļoti svarīgi, lai identificētu un mazinātu visus iespējamos riskus, kas var rasties laika gaitā. Visbeidzot, organizācijām ir jāattīsta AI drošības kultūra, veicinot darbinieku un ieinteresēto personu informētību, izglītību un apmācību. Šīs darbības ietver apmācību par AI ētisku izmantošanu, ar AI saistītajiem riskiem un to, kā identificēt un ziņot par problēmām vai bažām. 

    Šo centienu rezultātā, iespējams, vairāk uzņēmumu veidos savas atbildīgās AI nodaļas. Šī topošā pārvaldības sistēma novērš juridiskos un ētiskos šķēršļus, kas saistīti ar mākslīgo intelektu, dokumentējot, kā organizācijas tiem tuvojas. Ietvars un ar to saistītās iniciatīvas vēlas novērst neskaidrības, lai novērstu neparedzētas negatīvas sekas. Atbildīga AI ietvara principi ir vērsti uz AI izstrādi, izstrādi un izmantošanu tā, lai tas gūtu labumu darbiniekiem, sniegtu vērtību klientiem un pozitīvi ietekmētu sabiedrību.

    AI TRISM sekas

    Plašākas AI TRISM sekas var ietvert: 

    • Tā kā AI TRISM kļūst arvien nozīmīgāka, uzņēmumiem būs jāpieņem darbā vairāk kvalificētu darbinieku, kas ir zinoši šajā jomā, piemēram, AI drošības analītiķi, riska vadītāji un ētikas speciālisti.
    • Jauni ētiski un morāli apsvērumi, piemēram, nepieciešamība pēc pārredzamības, godīguma un atbildības, izmantojot AI sistēmas.
    • AI papildināti jauninājumi, kas ir droši, uzticami un uzticami.
    • Palielināts spiediens uz valdības regulējumu, lai aizsargātu personas un organizācijas no riskiem, kas saistīti ar AI sistēmām.
    • Lielāka uzmanība jāpievērš tam, lai AI sistēmas nebūtu neobjektīvas pret noteiktām grupām vai indivīdiem.
    • Jaunas iespējas tiem, kam ir AI prasmes, un potenciāli pārvietot tos, kuriem tās nav.
    • Palielināts enerģijas patēriņš un datu uzglabāšanas jauda pastāvīgi atjauninātiem treniņu datiem.
    • Vairāk uzņēmumu tiek sodīti par globālo atbildīgā AI standartu nepieņemšanu.

    Jautājumi, kas jāapsver

    • Ja strādājat AI, kā jūsu uzņēmums apmāca savus algoritmus, lai tie būtu ētiski?
    • Kādi ir izaicinājumi, veidojot atbildīgas AI sistēmas?

    Ieskata atsauces

    Šim ieskatam tika izmantotas šādas populāras un institucionālas saites: