KI TRiSM: Om te verseker dat KI eties bly

BEELDKREDIET:
Image krediet
iStock

KI TRiSM: Om te verseker dat KI eties bly

KI TRiSM: Om te verseker dat KI eties bly

Subopskrif teks
Maatskappye word versoek om standaarde en beleide te skep wat die grense van kunsmatige intelligensie duidelik definieer.
    • Author:
    • Author naam
      Quantumrun Foresight
    • Oktober 20, 2023

    Insig opsomming

    In 2022 het die navorsingsfirma Gartner AI TRiSM bekendgestel, wat staan ​​vir AI Trust, Risk, and Security Management, om die bestuur en betroubaarheid van KI-modelle te verseker. Die raamwerk bestaan ​​uit vyf pilare: verklaarbaarheid, modelbedrywighede, data-anomalie-opsporing, weerstand teen teenstrydige aanvalle en databeskerming. Die verslag beklemtoon dat swak bestuur van KI-risiko's kan lei tot aansienlike verliese en sekuriteitsbreuke. Die implementering van AI TRiSM vereis 'n kruisfunksionele span van regs-, nakoming-, IT- en data-analise. Die raamwerk het ten doel om 'n kultuur van "Verantwoordelike KI" te bou, wat fokus op etiese en regskwessies, en sal waarskynlik huurneigings, regeringsregulasies en etiese oorwegings in KI beïnvloed.

    AI TRiSM konteks

    Volgens Gartner is daar vyf pilare vir AI TriSM: verduidelikbaarheid, Model Operations (ModelOps), data-anomalie-opsporing, weerstand teen aanval en databeskerming. Gebaseer op Gartner se projeksies, sal organisasies wat hierdie pilare implementeer 'n 50 persent hupstoot in hul KI-modelprestasie met betrekking tot aanvaarding, besigheidsdoelwitte en gebruikersaanvaarding teen 2026 sien. Daarbenewens sal KI-aangedrewe masjiene 20 persent van die wêreld se arbeidsmag uitmaak en dra teen 40 2028 persent van die algehele ekonomiese produktiwiteit by.

    Die bevindinge van Gartner se opname dui daarop dat baie organisasies honderde of duisende KI-modelle geïmplementeer het wat IT-bestuurders nie kan begryp of interpreteer nie. Organisasies wat nie KI-verwante risiko's voldoende bestuur nie, is aansienlik meer geneig om ongunstige uitkomste en oortredings teë te kom. Die modelle mag dalk nie funksioneer soos bedoel nie, wat lei tot sekuriteit- en privaatheidskendings, en finansiële, individuele en reputasieskade. Onakkurate implementering van KI kan ook veroorsaak dat organisasies verkeerde sakebesluite neem.

    Om AI TRiSM suksesvol te implementeer, word 'n kruisfunksionele span regs-, nakomings-, sekuriteit-, IT- en data-ontledingspersoneel vereis. Die vestiging van 'n toegewyde span of taakspan met behoorlike verteenwoordiging van elke besigheidsarea betrokke by die KI-projek sal ook optimale resultate lewer. Dit is ook noodsaaklik om te verseker dat elke spanlid hul rolle en verantwoordelikhede duidelik verstaan, sowel as die doelwitte en doelwitte van die AI TRiSM-inisiatief.

    Ontwrigtende impak

    Om KI veilig te maak, beveel Gartner verskeie belangrike stappe aan. Eerstens moet organisasies die potensiële risiko's wat met KI verband hou, begryp en hoe om dit te versag. Hierdie poging vereis 'n omvattende risikobeoordeling wat nie net die tegnologie self in ag neem nie, maar ook die impak daarvan op mense, prosesse en die omgewing.

    Tweedens moet organisasies belê in KI-bestuur, wat beleide, prosedures en beheermaatreëls vir die bestuur van KI-risiko's insluit. Hierdie strategie sluit in om te verseker dat KI-stelsels deursigtig, verklaarbaar, verantwoordbaar is en aan relevante wette en regulasies voldoen. Boonop is deurlopende monitering en ouditering van KI-modelle van kardinale belang om enige potensiële risiko's wat mettertyd mag ontstaan, te identifiseer en te versag. Laastens moet organisasies 'n kultuur van KI-veiligheid ontwikkel, wat bewustheid, opvoeding en opleiding onder werknemers en belanghebbendes bevorder. Hierdie stappe sluit opleiding in oor die etiese gebruik van KI, die risiko's verbonde aan KI, en hoe om kwessies of bekommernisse te identifiseer en aan te meld. 

    Hierdie pogings sal waarskynlik daartoe lei dat meer maatskappye hul verantwoordelike KI-afdelings bou. Hierdie opkomende bestuursraamwerk spreek die wetlike en etiese struikelblokke aan wat met KI verband hou deur te dokumenteer hoe organisasies dit benader. Die raamwerk en sy gepaardgaande inisiatiewe wil dubbelsinnigheid uitskakel om onbedoelde negatiewe gevolge te voorkom. Die beginsels van 'n Verantwoordelike KI-raamwerk fokus op die ontwerp, ontwikkeling en gebruik van KI op maniere wat werknemers bevoordeel, waarde aan kliënte verskaf en die samelewing positief beïnvloed.

    Implikasies van AI TRiSM

    Wyer implikasies van AI TRiSM kan die volgende insluit: 

    • Soos AI TRiSM al hoe belangriker word, sal maatskappye meer geskoolde werkers moet aanstel wat kundig is in hierdie veld, soos KI-sekuriteitsontleders, risikobestuurders en etici.
    • Nuwe etiese en morele oorwegings, soos die behoefte aan deursigtigheid, regverdigheid en aanspreeklikheid in die gebruik van KI-stelsels.
    • KI-vergrote innovasies wat veilig, betroubaar en betroubaar is.
    • Verhoogde druk vir regeringsregulering om individue en organisasies te beskerm teen risiko's wat met KI-stelsels verband hou.
    • 'n Groter fokus om te verseker dat KI-stelsels nie bevooroordeeld is teen spesifieke groepe of individue nie.
    • Nuwe geleenthede vir diegene met KI-vaardighede en potensieel verplaas diegene sonder hulle.
    • Verhoogde energieverbruik en databergingskapasiteit vir voortdurend bygewerkte opleidingsdata.
    • Meer maatskappye word beboet omdat hulle nie wêreldwye Verantwoordelike KI-standaarde aanvaar nie.

    Vrae om te oorweeg

    • As jy in KI werk, hoe oefen jou maatskappy sy algoritmes op om eties te wees?
    • Wat is die uitdagings om verantwoordelike KI-stelsels te bou?

    Insig verwysings

    Die volgende gewilde en institusionele skakels is vir hierdie insig verwys: