AI TRiSM. Ապահովել, որ AI-ն մնում է բարոյական

ՊԱՏԿԵՐԻ ՎԱՐԿ.
Image վարկային
iStock- ը

AI TRiSM. Ապահովել, որ AI-ն մնում է բարոյական

AI TRiSM. Ապահովել, որ AI-ն մնում է բարոյական

Ենթավերնագրի տեքստը
Ընկերություններին կոչ է արվում ստեղծել ստանդարտներ և քաղաքականություն, որոնք հստակորեն կսահմանեն արհեստական ​​ինտելեկտի սահմանները:
    • Հեղինակ:
    • Հեղինակ անունը
      Quantumrun Հեռատեսություն
    • Հոկտեմբեր 20, 2023

    Insight ամփոփում

    2022 թվականին Gartner հետազոտական ​​ընկերությունը ներկայացրեց AI TRiSM-ը, որը նշանակում է AI Trust, Risk and Security Management՝ ապահովելու AI մոդելների կառավարումն ու հուսալիությունը: Շրջանակը բաղկացած է հինգ սյուներից՝ բացատրելիություն, մոդելային գործառնություններ, տվյալների անոմալիաների հայտնաբերում, հակառակորդների հարձակումներին դիմադրություն և տվյալների պաշտպանություն: Զեկույցն ընդգծում է, որ AI ռիսկերի վատ կառավարումը կարող է հանգեցնել զգալի կորուստների և անվտանգության խախտումների: AI TRiSM-ի ներդրումը պահանջում է իրավական, համապատասխանության, ՏՏ և տվյալների վերլուծության բազմաֆունկցիոնալ թիմ: Շրջանակը նպատակ ունի կառուցել «Պատասխանատու AI»-ի մշակույթ՝ կենտրոնանալով էթիկական և իրավական խնդիրների վրա և, հավանաբար, կազդի AI-ի աշխատանքի ընդունման միտումների, կառավարության կանոնակարգերի և էթիկական նկատառումների վրա:

    AI TRiSM համատեքստ

    Ըստ Gartner-ի՝ AI TriSM-ի հինգ հենասյուն կա՝ բացատրելիություն, մոդելային գործառնություններ (ModelOps), տվյալների անոմալիաների հայտնաբերում, հակառակորդների հարձակման դիմադրություն և տվյալների պաշտպանություն: Հիմնվելով Gartner-ի կանխատեսումների վրա՝ այս հենասյուներն իրականացնող կազմակերպությունները մինչև 50 թվականը ականատես կլինեն իրենց AI մոդելի կատարողականի 2026 տոկոսով բարձրացմանը՝ կապված ընդունման, բիզնես նպատակների և օգտատերերի ընդունման հետ: Բացի այդ, AI-ով աշխատող մեքենաները կկազմեն աշխարհի աշխատուժի 20 տոկոսը: և մինչև 40 թվականը նպաստել ընդհանուր տնտեսական արտադրողականության 2028 տոկոսին:

    Gartner-ի հետազոտության արդյունքները ցույց են տալիս, որ շատ կազմակերպություններ իրականացրել են AI-ի հարյուրավոր կամ հազարավոր մոդելներ, որոնք ՏՏ ղեկավարները չեն կարողանում հասկանալ կամ մեկնաբանել: Կազմակերպությունները, որոնք պատշաճ կերպով չեն կառավարում AI-ի հետ կապված ռիսկերը, զգալիորեն ավելի հակված են անբարենպաստ արդյունքների և խախտումների հանդիպելու: Մոդելները կարող են չգործել այնպես, ինչպես նախատեսված է, ինչը կհանգեցնի անվտանգության և գաղտնիության խախտումների, ինչպես նաև ֆինանսական, անհատական ​​և հեղինակության վնաս: AI-ի ոչ ճշգրիտ իրականացումը կարող է նաև ստիպել կազմակերպություններին սխալ բիզնես որոշումներ կայացնել:

    AI TRiSM-ը հաջողությամբ իրականացնելու համար պահանջվում է իրավական, համապատասխանության, անվտանգության, ՏՏ և տվյալների վերլուծության անձնակազմի բազմաֆունկցիոնալ թիմ: Արհեստական ​​ինտելեկտի նախագծում ընդգրկված յուրաքանչյուր բիզնես ոլորտից պատշաճ ներկայացվածությամբ հատուկ թիմ կամ աշխատանքային խումբ ստեղծելը նույնպես օպտիմալ արդյունքներ կտա: Կարևոր է նաև ապահովել, որ թիմի յուրաքանչյուր անդամ հստակ հասկանում է իր դերերն ու պարտականությունները, ինչպես նաև AI TRiSM նախաձեռնության նպատակներն ու խնդիրները:

    Խանգարող ազդեցություն

    AI-ն անվտանգ դարձնելու համար Gartner-ը խորհուրդ է տալիս մի քանի կարևոր քայլ: Նախ, կազմակերպությունները պետք է հասկանան AI-ի հետ կապված հնարավոր ռիսկերը և ինչպես մեղմել դրանք: Այս ջանքերը պահանջում են ռիսկերի համապարփակ գնահատում, որը հաշվի կառնի ոչ միայն տեխնոլոգիան, այլև դրա ազդեցությունը մարդկանց, գործընթացների և շրջակա միջավայրի վրա:

    Երկրորդ, կազմակերպությունները պետք է ներդրումներ կատարեն AI կառավարման մեջ, որը ներառում է AI ռիսկերի կառավարման քաղաքականություն, ընթացակարգեր և վերահսկողություն: Այս ռազմավարությունը ներառում է ապահովել, որ AI համակարգերը լինեն թափանցիկ, բացատրելի, հաշվետու և համապատասխանեն համապատասխան օրենքներին ու կանոնակարգերին: Բացի այդ, արհեստական ​​ինտելեկտի մոդելների շարունակական մոնիտորինգը և աուդիտը կարևոր նշանակություն ունեն ժամանակի ընթացքում առաջացող հնարավոր ռիսկերը հայտնաբերելու և մեղմելու համար: Վերջապես, կազմակերպությունները պետք է զարգացնեն արհեստական ​​ինտելեկտի անվտանգության մշակույթ՝ խթանելով աշխատակիցների և շահագրգիռ կողմերի տեղեկացվածությունը, կրթությունը և վերապատրաստումը: Այս քայլերը ներառում են արհեստական ​​ինտելեկտի էթիկական օգտագործման, արհեստական ​​ինտելեկտի հետ կապված ռիսկերի և խնդիրների կամ մտահոգությունների բացահայտման և զեկուցման վերաբերյալ ուսուցում: 

    Այս ջանքերը, հավանաբար, կհանգեցնեն այն բանին, որ ավելի շատ ընկերություններ կստեղծեն իրենց պատասխանատու AI բաժինները: Այս ձևավորվող կառավարման շրջանակն անդրադառնում է AI-ի հետ կապված իրավական և էթիկական խոչընդոտներին՝ փաստագրելով, թե ինչպես են կազմակերպությունները մոտենում դրանց: Շրջանակը և դրա հետ կապված նախաձեռնությունները ցանկանում են վերացնել երկիմաստությունը՝ կանխելու համար անցանկալի բացասական հետևանքները: Պատասխանատու AI շրջանակի սկզբունքները կենտրոնանում են AI-ի նախագծման, զարգացման և օգտագործման վրա, որոնք օգուտ են բերում աշխատակիցներին, արժեք են տալիս հաճախորդներին և դրականորեն ազդում հասարակության վրա:

    AI TRiSM-ի հետևանքները

    AI TRiSM-ի ավելի լայն հետևանքները կարող են ներառել. 

    • Քանի որ AI TRiSM-ը դառնում է ավելի ու ավելի կարևոր, ընկերությունները պետք է վարձեն ավելի հմուտ աշխատողներ, ովքեր գիտեն այս ոլորտում, ինչպիսիք են AI անվտանգության վերլուծաբանները, ռիսկերի մենեջերները և էթիկայի մասնագետները:
    • Նոր էթիկական և բարոյական նկատառումներ, ինչպիսիք են AI համակարգերի օգտագործման թափանցիկության, արդարության և հաշվետվողականության անհրաժեշտությունը:
    • AI-ով ընդլայնված նորարարություններ, որոնք ապահով են, վստահելի և հուսալի:
    • Ավելացել է ճնշումը կառավարության կարգավորման համար՝ անհատներին և կազմակերպություններին AI համակարգերի հետ կապված ռիսկերից պաշտպանելու համար:
    • Ավելի մեծ ուշադրություն՝ ապահովելու, որ AI համակարգերը կողմնակալ չեն որոշակի խմբերի կամ անհատների դեմ:
    • Նոր հնարավորություններ նրանց համար, ովքեր տիրապետում են արհեստական ​​ինտելեկտի հմտություններին և կարող են տեղահանել նրանց, ովքեր չունեն այդ հմտությունները:
    • Էլեկտրաէներգիայի սպառման և տվյալների պահպանման հզորության ավելացում՝ վերապատրաստման անընդհատ թարմացվող տվյալների համար:
    • Ավելի շատ ընկերություններ տուգանվում են Համաշխարհային Responsible AI ստանդարտները չընդունելու համար:

    Հարցեր, որոնք պետք է հաշվի առնել

    • Եթե ​​դուք աշխատում եք AI-ում, ինչպե՞ս է ձեր ընկերությունը վարժեցնում իր ալգորիթմները բարոյական լինելու համար:
    • Որո՞նք են Պատասխանատու AI համակարգերի ստեղծման մարտահրավերները: