AI TRiSM: ervoor zorgen dat AI ethisch blijft

BEELDKREDIET:
Image credit
iStock

AI TRiSM: ervoor zorgen dat AI ethisch blijft

AI TRiSM: ervoor zorgen dat AI ethisch blijft

Onderkoptekst
Bedrijven worden aangespoord om normen en beleid te creëren die de grenzen van kunstmatige intelligentie duidelijk definiëren.
    • Auteur:
    • auteursnaam
      Quantumrun-prognose
    • 20 oktober 2023

    Samenvatting inzicht

    In 2022 introduceerde onderzoeksbureau Gartner AI TRiSM, wat staat voor AI Trust, Risk, and Security Management, om het bestuur en de betrouwbaarheid van AI-modellen te garanderen. Het raamwerk bestaat uit vijf pijlers: verklaarbaarheid, modeloperaties, detectie van gegevensafwijkingen, weerstand tegen vijandige aanvallen en gegevensbescherming. Het rapport benadrukt dat een slecht beheer van AI-risico’s kan leiden tot aanzienlijke verliezen en inbreuken op de beveiliging. Voor de implementatie van AI TRiSM is een multifunctioneel team nodig op het gebied van juridische zaken, compliance, IT en data-analyse. Het raamwerk heeft tot doel een cultuur van ‘verantwoordelijke AI’ op te bouwen, waarbij de nadruk ligt op ethische en juridische kwesties, en zal waarschijnlijk de aanwervingstrends, overheidsregelgeving en ethische overwegingen op het gebied van AI beïnvloeden.

    AI TRiSM-context

    Volgens Gartner zijn er vijf pijlers voor AI TriSM: uitlegbaarheid, Model Operations (ModelOps), detectie van gegevensafwijkingen, weerstand tegen vijandige aanvallen en gegevensbescherming. Op basis van de voorspellingen van Gartner zullen organisaties die deze pijlers implementeren tegen 50 getuige zijn van een toename van 2026 procent in de prestaties van hun AI-modellen met betrekking tot adoptie, bedrijfsdoelstellingen en gebruikersacceptatie. Bovendien zullen AI-aangedreven machines 20 procent van de beroepsbevolking in de wereld uitmaken. en in 40 2028 procent van de totale economische productiviteit zullen bijdragen.

    De bevindingen van het onderzoek van Gartner suggereren dat veel organisaties honderden of duizenden AI-modellen hebben geïmplementeerd die IT-managers niet kunnen begrijpen of interpreteren. Organisaties die AI-gerelateerde risico’s niet adequaat beheren, zijn aanzienlijk gevoeliger voor ongunstige resultaten en inbreuken. Het is mogelijk dat de modellen niet functioneren zoals bedoeld, wat kan leiden tot schendingen van de beveiliging en privacy, en financiële, individuele schade en reputatieschade. Een onnauwkeurige implementatie van AI kan er ook voor zorgen dat organisaties misleidende zakelijke beslissingen nemen.

    Om AI TRiSM succesvol te implementeren is een multifunctioneel team van juridisch, compliance-, beveiligings-, IT- en data-analysepersoneel vereist. Het opzetten van een speciaal team of een taakgroep met de juiste vertegenwoordiging van elk bedrijfsonderdeel dat bij het AI-project betrokken is, zal ook optimale resultaten opleveren. Het is ook essentieel om ervoor te zorgen dat elk teamlid zijn rollen en verantwoordelijkheden duidelijk begrijpt, evenals de doelen en doelstellingen van het AI TRiSM-initiatief.

    Disruptieve impact

    Om AI veilig te maken, beveelt Gartner verschillende essentiële stappen aan. Ten eerste moeten organisaties de potentiële risico’s van AI begrijpen en weten hoe ze deze kunnen beperken. Deze inspanning vereist een alomvattende risicobeoordeling waarbij niet alleen rekening wordt gehouden met de technologie zelf, maar ook met de impact ervan op mensen, processen en het milieu.

    Ten tweede moeten organisaties investeren in AI-governance, waaronder beleid, procedures en controles voor het beheersen van AI-risico’s. Deze strategie houdt onder meer in dat ervoor wordt gezorgd dat AI-systemen transparant, verklaarbaar en aansprakelijk zijn en voldoen aan de relevante wet- en regelgeving. Bovendien zijn voortdurende monitoring en audits van AI-modellen van cruciaal belang om eventuele potentiële risico’s die zich in de loop van de tijd kunnen voordoen, te identificeren en te beperken. Ten slotte moeten organisaties een cultuur van AI-veiligheid ontwikkelen, waarbij bewustzijn, opleiding en training onder werknemers en belanghebbenden worden bevorderd. Deze stappen omvatten training over het ethisch gebruik van AI, de risico's die aan AI verbonden zijn, en hoe problemen of zorgen kunnen worden geïdentificeerd en gerapporteerd. 

    Deze inspanningen zullen er waarschijnlijk toe leiden dat meer bedrijven hun Responsible AI-afdelingen opbouwen. Dit opkomende bestuurskader pakt de juridische en ethische obstakels in verband met AI aan door te documenteren hoe organisaties deze benaderen. Het raamwerk en de bijbehorende initiatieven willen dubbelzinnigheid wegnemen om onbedoelde negatieve gevolgen te voorkomen. De principes van een Responsible AI-framework zijn gericht op het ontwerpen, ontwikkelen en gebruiken van AI op een manier die werknemers ten goede komt, waarde biedt aan klanten en een positieve impact heeft op de samenleving.

    Implicaties van AI TRiSM

    Bredere implicaties van AI TRiSM kunnen zijn: 

    • Naarmate AI TRiSM steeds belangrijker wordt, zullen bedrijven meer geschoolde werknemers met kennis op dit gebied moeten inhuren, zoals AI-beveiligingsanalisten, risicomanagers en ethici.
    • Nieuwe ethische en morele overwegingen, zoals de behoefte aan transparantie, eerlijkheid en verantwoordelijkheid bij het gebruik van AI-systemen.
    • AI-verbeterde innovaties die veilig, betrouwbaar en betrouwbaar zijn.
    • Toegenomen druk op overheidsregulering om individuen en organisaties te beschermen tegen risico's die verband houden met AI-systemen.
    • Er moet meer aandacht worden besteed aan het waarborgen dat AI-systemen niet bevooroordeeld zijn tegen bepaalde groepen of individuen.
    • Nieuwe kansen voor mensen met AI-vaardigheden en mogelijk verdringing van degenen zonder deze vaardigheden.
    • Verhoogd energieverbruik en gegevensopslagcapaciteit voor voortdurend bijgewerkte trainingsgegevens.
    • Steeds meer bedrijven krijgen boetes omdat ze de mondiale normen voor verantwoorde AI niet overnemen.

    Vragen om te overwegen

    • Als u in AI werkt, hoe traint uw bedrijf dan zijn algoritmen om ethisch te zijn?
    • Wat zijn de uitdagingen bij het bouwen van verantwoorde AI-systemen?

    Insight-referenties

    Voor dit inzicht werd verwezen naar de volgende populaire en institutionele links: