AI TRiSM: забеспячэнне таго, каб AI заставаўся этычным
AI TRiSM: забеспячэнне таго, каб AI заставаўся этычным
AI TRiSM: забеспячэнне таго, каб AI заставаўся этычным
- аўтар:
- Кастрычнік 20, 2023
Кароткі агляд
У 2022 годзе даследчая кампанія Gartner прадставіла AI TRiSM, што азначае AI Trust, Risk і Security Management, каб забяспечыць кіраванне і надзейнасць мадэляў AI. Фреймворк складаецца з пяці слупоў: тлумачальнасці, аперацый з мадэллю, выяўлення анамалій дадзеных, устойлівасці да нападаў суперніка і абароны даных. У справаздачы падкрэсліваецца, што дрэннае кіраванне рызыкамі штучнага інтэлекту можа прывесці да значных страт і парушэнняў бяспекі. Для ўкаранення AI TRiSM патрэбна шматфункцыянальная каманда з юрыдычных, аддзелаў адпаведнасці, ІТ і аналітыкі даных. Рамка накіравана на стварэнне культуры «адказнага штучнага інтэлекту» з упорам на этычныя і прававыя праблемы і, верагодна, паўплывае на тэндэнцыі найму, дзяржаўныя пастановы і этычныя меркаванні ў сферы штучнага інтэлекту.
Кантэкст AI TRiSM
Па словах Gartner, у AI TriSM ёсць пяць слупоў: тлумачальнасць, аперацыя мадэляў (ModelOps), выяўленне анамалій дадзеных, устойлівасць да спаборніцкіх атак і абарона даных. Згодна з прагнозамі Gartner, да 50 года арганізацыі, якія ўкараняюць гэтыя асноўныя прынцыпы, павялічаць прадукцыйнасць сваёй мадэлі штучнага інтэлекту на 2026 працэнтаў у залежнасці ад прыняцця, бізнес-мэтаў і прыняцця карыстальнікамі. Акрамя таго, машыны на базе штучнага інтэлекту будуць складаць 20 працэнтаў сусветнай працоўнай сілы. і ўнесці 40 працэнтаў у агульную прадукцыйнасць эканомікі да 2028 года.
Вынікі апытання Gartner паказваюць, што многія арганізацыі ўкаранілі сотні ці тысячы мадэляў штучнага інтэлекту, якія ІТ-кіраўнікі не могуць зразумець або інтэрпрэтаваць. Арганізацыі, якія неадэкватна кіруюць рызыкамі, звязанымі з штучным інтэлектам, значна больш схільныя сутыкацца з неспрыяльнымі вынікамі і парушэннямі. Мадэлі могуць не працаваць належным чынам, што прывядзе да парушэнняў бяспекі і прыватнасці, а таксама да фінансавай, індывідуальнай і рэпутацыйнай шкоды. Недакладнае ўкараненне штучнага інтэлекту таксама можа прымусіць арганізацыі прымаць памылковыя бізнес-рашэнні.
Для паспяховага ўкаранення AI TRiSM патрабуецца шматфункцыянальная каманда спецыялістаў па прававых пытаннях, адпаведнасці, бяспекі, ІТ і аналітыкі даных. Стварэнне спецыяльнай каманды або аператыўнай групы з належным прадстаўніцтвам кожнай сферы бізнесу, задзейнічанай у праекце штучнага інтэлекту, таксама дасць аптымальныя вынікі. Таксама важна пераканацца, што кожны член каманды дакладна разумее свае ролі і абавязкі, а таксама мэты і задачы ініцыятывы AI TRiSM.
Разбуральнае ўздзеянне
Каб зрабіць штучны інтэлект бяспечным, Gartner рэкамендуе некалькі жыццёва важных крокаў. Па-першае, арганізацыі павінны разумець патэнцыйныя рызыкі, звязаныя з штучным інтэлектам, і спосабы іх змякчэння. Гэтыя намаганні патрабуюць комплекснай ацэнкі рызыкі, якая ўлічвае не толькі саму тэхналогію, але і яе ўплыў на людзей, працэсы і навакольнае асяроддзе.
Па-другое, арганізацыі павінны інвеставаць у кіраванне ІІ, якое ўключае палітыку, працэдуры і сродкі кантролю для кіравання рызыкамі ІІ. Гэтая стратэгія ўключае забеспячэнне таго, каб сістэмы штучнага інтэлекту былі празрыстымі, вытлумачальнымі, падсправаздачнымі і адпавядалі адпаведным законам і правілам. Акрамя таго, пастаянны маніторынг і аўдыт мадэляў штучнага інтэлекту маюць вырашальнае значэнне для выяўлення і змякчэння любых патэнцыйных рызык, якія могуць узнікнуць з часам. Нарэшце, арганізацыі павінны развіваць культуру бяспекі штучнага інтэлекту, прасоўваючы інфармаванасць, адукацыю і навучанне сярод супрацоўнікаў і зацікаўленых бакоў. Гэтыя крокі ўключаюць навучанне этычнаму выкарыстанню штучнага інтэлекту, рызыкі, звязаныя з штучным інтэлектам, а таксама тое, як выяўляць праблемы і праблемы і паведамляць пра іх.
Гэтыя намаганні, хутчэй за ўсё, прывядуць да таго, што больш кампаній будуць ствараць аддзелы адказнага штучнага інтэлекту. Гэтая новая структура кіравання вырашае прававыя і этычныя перашкоды, звязаныя з штучным інтэлектам, дакументуючы, як арганізацыі падыходзяць да іх. Структура і звязаныя з ёй ініцыятывы хочуць ліквідаваць двухсэнсоўнасць, каб прадухіліць непрадбачаныя негатыўныя наступствы. Прынцыпы структуры адказнага штучнага інтэлекту сканцэнтраваны на распрацоўцы, распрацоўцы і выкарыстанні штучнага інтэлекту такім чынам, каб прынесці карысць супрацоўнікам, забяспечыць каштоўнасць кліентам і станоўча паўплываць на грамадства.
Наступствы AI TRiSM
Больш шырокія наступствы AI TRiSM могуць уключаць:
- Паколькі AI TRiSM становіцца ўсё больш важным, кампаніям трэба будзе наймаць больш кваліфікаваных работнікаў, дасведчаных у гэтай галіне, такіх як аналітыкі бяспекі AI, менеджэры па рызыцы і спецыялісты па этыцы.
- Новыя этычныя і маральныя меркаванні, такія як неабходнасць празрыстасці, справядлівасці і падсправаздачнасці пры выкарыстанні сістэм штучнага інтэлекту.
- Бяспечныя, надзейныя і надзейныя інавацыі з дапаўненнем штучнага інтэлекту.
- Узмацненне ціску з боку дзяржаўнага рэгулявання для абароны асоб і арганізацый ад рызык, звязаных з сістэмамі штучнага інтэлекту.
- Большы акцэнт на забеспячэнні таго, каб сістэмы штучнага інтэлекту не прадузята ставіліся да пэўных груп або асоб.
- Новыя магчымасці для тых, хто валодае навыкамі штучнага інтэлекту і патэнцыйна выцесняць тых, хто яго не мае.
- Павялічанае спажыванне энергіі і ёмістасць захоўвання дадзеных для пастаянна абнаўляемых даных навучання.
- Больш кампаній штрафуюць за непрыняцце глабальных стандартаў адказнага штучнага інтэлекту.
Пытанні для разгляду
- Калі вы працуеце ў сферы штучнага інтэлекту, як ваша кампанія навучае свае алгарытмы этыцы?
- Якія праблемы ўзнікаюць пры стварэнні сістэм адказнага штучнага інтэлекту?
Спасылкі Insight
Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі: