AI TRiSM: Pagtiyak na ang AI ay nananatiling etikal

CREDIT NG LARAWAN:
Image credit
iStock

AI TRiSM: Pagtiyak na ang AI ay nananatiling etikal

AI TRiSM: Pagtiyak na ang AI ay nananatiling etikal

Teksto ng subheading
Hinihimok ang mga kumpanya na lumikha ng mga pamantayan at patakaran na malinaw na tumutukoy sa mga hangganan ng artificial intelligence.
    • May-akda:
    • pangalan Author
      Quantumrun Foresight
    • Oktubre 20, 2023

    Buod ng pananaw

    Noong 2022, ipinakilala ng research firm na Gartner ang AI TRiSM, na kumakatawan sa AI Trust, Risk, and Security Management, upang matiyak ang pamamahala at pagiging maaasahan ng mga modelo ng AI. Binubuo ang balangkas ng limang haligi: kakayahang maipaliwanag, mga pagpapatakbo ng modelo, pagtuklas ng anomalya ng data, paglaban sa mga pag-atake ng adversarial, at proteksyon ng data. Itinatampok ng ulat na ang mahinang pamamahala ng mga panganib sa AI ay maaaring humantong sa malalaking pagkalugi at paglabag sa seguridad. Ang pagpapatupad ng AI TRiSM ay nangangailangan ng cross-functional na team mula sa legal, compliance, IT, at data analytics. Nilalayon ng framework na bumuo ng kultura ng "Responsible AI," na tumutuon sa etikal at legal na mga alalahanin, at malamang na maimpluwensyahan ang mga trend sa pag-hire, mga regulasyon ng gobyerno, at mga etikal na pagsasaalang-alang sa AI.

    konteksto ng AI TRiSM

    Ayon kay Gartner, mayroong limang pillars sa AI TriSM: explainability, Model Operations (ModelOps), data anomaly detection, adversarial attack resistance, at data protection. Batay sa mga projection ni Gartner, masasaksihan ng mga organisasyong nagpapatupad ng mga haliging ito ang 50 porsiyentong pagpapalakas sa kanilang AI model performance kaugnay ng pag-aampon, mga layunin sa negosyo, at pagtanggap ng user sa 2026. Bukod pa rito, ang mga makinang pinapagana ng AI ay bubuo ng 20 porsiyento ng mga manggagawa sa mundo at mag-ambag ng 40 porsiyento ng pangkalahatang produktibidad sa ekonomiya sa 2028.

    Iminumungkahi ng mga natuklasan ng survey ni Gartner na maraming organisasyon ang nagpatupad ng daan-daan o libu-libong mga modelo ng AI na hindi mauunawaan o ma-interpret ng mga IT executive. Ang mga organisasyong hindi sapat na namamahala sa mga panganib na nauugnay sa AI ay mas madaling kapitan ng mga hindi kanais-nais na resulta at mga paglabag. Maaaring hindi gumana ang mga modelo ayon sa nilalayon, na humahantong sa mga paglabag sa seguridad at privacy, at pinsala sa pananalapi, indibidwal, at reputasyon. Ang hindi tumpak na pagpapatupad ng AI ay maaari ding maging sanhi ng mga organisasyon na gumawa ng mga maling desisyon sa negosyo.

    Upang matagumpay na maipatupad ang AI TRiSM, kinakailangan ang isang cross-functional na team ng legal, pagsunod, seguridad, IT, at mga tauhan ng data analytics. Ang pagtatatag ng dedikadong team o task force na may wastong representasyon mula sa bawat lugar ng negosyo na kasangkot sa proyekto ng AI ay magbubunga din ng pinakamainam na resulta. Mahalaga rin na tiyaking malinaw na nauunawaan ng bawat miyembro ng koponan ang kanilang mga tungkulin at responsibilidad, pati na rin ang mga layunin at layunin ng inisyatiba ng AI TRiSM.

    Nakakagambalang epekto

    Upang gawing ligtas ang AI, inirerekomenda ni Gartner ang ilang mahahalagang hakbang. Una, kailangang maunawaan ng mga organisasyon ang mga potensyal na panganib na nauugnay sa AI at kung paano pagaanin ang mga ito. Ang pagsisikap na ito ay nangangailangan ng komprehensibong pagtatasa ng panganib na isinasaalang-alang hindi lamang ang teknolohiya mismo kundi pati na rin ang epekto nito sa mga tao, proseso, at kapaligiran.

    Pangalawa, kailangang mamuhunan ang mga organisasyon sa pamamahala ng AI, na kinabibilangan ng mga patakaran, pamamaraan, at kontrol para sa pamamahala ng mga panganib sa AI. Kasama sa diskarteng ito ang pagtiyak na ang mga AI system ay transparent, maipaliwanag, may pananagutan, at sumusunod sa mga nauugnay na batas at regulasyon. Bukod pa rito, ang patuloy na pagsubaybay at pag-audit ng mga modelo ng AI ay napakahalaga upang matukoy at mabawasan ang anumang mga potensyal na panganib na maaaring lumabas sa paglipas ng panahon. Sa wakas, kailangan ng mga organisasyon na bumuo ng kultura ng kaligtasan ng AI, na nagsusulong ng kamalayan, edukasyon, at pagsasanay sa mga empleyado at stakeholder. Kasama sa mga hakbang na ito ang pagsasanay sa etikal na paggamit ng AI, ang mga panganib na nauugnay sa AI, at kung paano tumukoy at mag-ulat ng mga isyu o alalahanin. 

    Ang mga pagsisikap na ito ay malamang na magreresulta sa mas maraming kumpanyang bumuo ng kanilang Responsableng mga departamento ng AI. Ang umuusbong na balangkas ng pamamahala na ito ay tumutugon sa mga legal at etikal na hadlang na nauugnay sa AI sa pamamagitan ng pagdodokumento kung paano nila nilalapitan ang mga organisasyon. Nais ng balangkas at mga nauugnay na inisyatiba nito na alisin ang kalabuan upang maiwasan ang hindi sinasadyang mga negatibong kahihinatnan. Ang mga prinsipyo ng isang Responsableng AI framework ay nakatuon sa pagdidisenyo, pagbuo, at paggamit ng AI sa mga paraan na nakikinabang sa mga empleyado, nagbibigay ng halaga sa mga customer, at positibong nakakaapekto sa lipunan.

    Mga Implikasyon ng AI TRiSM

    Maaaring kabilang sa mas malawak na implikasyon ng AI TRiSM ang: 

    • Habang lalong nagiging mahalaga ang AI TRiSM, kakailanganin ng mga kumpanya na kumuha ng mas maraming bihasang manggagawa na may kaalaman sa larangang ito, gaya ng AI security analyst, risk manager, at ethicist.
    • Mga bagong pagsasaalang-alang sa etika at moral, tulad ng pangangailangan para sa transparency, pagiging patas, at pananagutan sa paggamit ng mga AI system.
    • Mga inobasyon na pinalaki ng AI na secure, mapagkakatiwalaan, at maaasahan.
    • Tumaas na presyon para sa regulasyon ng pamahalaan upang protektahan ang mga indibidwal at organisasyon mula sa mga panganib na nauugnay sa mga AI system.
    • Ang isang mas malaking pagtuon sa pagtiyak na ang mga AI system ay hindi bias laban sa mga partikular na grupo o indibidwal.
    • Mga bagong pagkakataon para sa mga may kasanayan sa AI at potensyal na mapaalis ang mga wala sa kanila.
    • Tumaas na pagkonsumo ng enerhiya at kapasidad ng pag-iimbak ng data para sa patuloy na na-update na data ng pagsasanay.
    • Mas maraming kumpanya ang pinagmumulta dahil sa hindi paggamit ng mga pandaigdigang Responsable AI na pamantayan.

    Mga katanungang dapat isaalang-alang

    • Kung nagtatrabaho ka sa AI, paano sinasanay ng iyong kumpanya ang mga algorithm nito upang maging etikal?
    • Ano ang mga hamon ng pagbuo ng Mga Responsableng AI system?

    Mga sanggunian ng insight

    Ang mga sumusunod na sikat at institusyonal na link ay isinangguni para sa pananaw na ito: