AI TRISM: Sicrhau bod AI yn parhau'n foesegol

CREDYD DELWEDD:
Credyd Delwedd
iStock

AI TRISM: Sicrhau bod AI yn parhau'n foesegol

AI TRISM: Sicrhau bod AI yn parhau'n foesegol

Testun is-bennawd
Anogir cwmnïau i greu safonau a pholisïau sy'n diffinio ffiniau deallusrwydd artiffisial yn glir.
    • Awdur:
    • enw awdur
      Rhagolwg Quantumrun
    • Tachwedd 20

    Crynodeb mewnwelediad

    Yn 2022, cyflwynodd cwmni ymchwil Gartner AI TRISM, yn sefyll ar gyfer Ymddiriedolaeth AI, Risg, a Rheoli Diogelwch, i sicrhau llywodraethu a dibynadwyedd modelau AI. Mae'r fframwaith yn cynnwys pum piler: eglurdeb, gweithrediadau model, canfod anghysondebau data, ymwrthedd i ymosodiadau gwrthwynebus, a diogelu data. Mae'r adroddiad yn amlygu y gall rheolaeth wael o risgiau AI arwain at golledion sylweddol a thorri diogelwch. Mae gweithredu AI TRISM yn gofyn am dîm traws-swyddogaethol o ddadansoddiadau cyfreithiol, cydymffurfio, TG a data. Nod y fframwaith yw adeiladu diwylliant o "AI Cyfrifol," gan ganolbwyntio ar bryderon moesegol a chyfreithiol, ac mae'n debygol o ddylanwadu ar dueddiadau llogi, rheoliadau'r llywodraeth, ac ystyriaethau moesegol mewn AI.

    Cyd-destun AI TRISM

    Yn ôl Gartner, mae pum piler i AI TriSM: eglurdeb, Gweithrediadau Model (ModelOps), canfod anghysondebau data, ymwrthedd i ymosodiadau gwrthwynebus, a diogelu data. Yn seiliedig ar ragamcanion Gartner, bydd sefydliadau sy'n gweithredu'r pileri hyn yn gweld hwb o 50 y cant ym mherfformiad eu model AI mewn perthynas â mabwysiadu, amcanion busnes, a derbyniad defnyddwyr erbyn 2026. Yn ogystal, bydd peiriannau wedi'u pweru gan AI yn cyfrif am 20 y cant o weithlu'r byd ac yn cyfrannu 40 y cant o gynhyrchiant economaidd cyffredinol erbyn 2028.

    Mae canfyddiadau arolwg Gartner yn awgrymu bod llawer o sefydliadau wedi gweithredu cannoedd neu filoedd o fodelau AI na all swyddogion gweithredol TG eu deall na'u dehongli. Mae sefydliadau nad ydynt yn rheoli risgiau cysylltiedig â AI yn ddigonol yn llawer mwy tebygol o ddod ar draws canlyniadau anffafriol a thorri amodau. Efallai na fydd y modelau’n gweithredu fel y bwriadwyd, gan arwain at dorri diogelwch a phreifatrwydd, a niwed ariannol, unigol ac enw da. Gall gweithredu AI yn anghywir hefyd achosi sefydliadau i wneud penderfyniadau busnes camarweiniol.

    Er mwyn gweithredu AI TRISM yn llwyddiannus, mae angen tîm traws-swyddogaethol o bersonél cyfreithiol, cydymffurfio, diogelwch, TG a dadansoddeg data. Bydd sefydlu tîm neu dasglu pwrpasol gyda chynrychiolaeth briodol o bob maes busnes sy'n ymwneud â'r prosiect AI hefyd yn arwain at y canlyniadau gorau posibl. Mae hefyd yn hanfodol sicrhau bod pob aelod o'r tîm yn deall eu rolau a'u cyfrifoldebau yn glir, yn ogystal â nodau ac amcanion menter AI TRISM.

    Effaith aflonyddgar

    Er mwyn gwneud AI yn ddiogel, mae Gartner yn argymell sawl cam hanfodol. Yn gyntaf, mae angen i sefydliadau ddeall y risgiau posibl sy'n gysylltiedig ag AI a sut i'w lliniaru. Mae'r ymdrech hon yn gofyn am asesiad risg cynhwysfawr sy'n ystyried nid yn unig y dechnoleg ei hun ond hefyd ei heffaith ar bobl, prosesau a'r amgylchedd.

    Yn ail, mae angen i sefydliadau fuddsoddi mewn llywodraethu AI, sy'n cynnwys polisïau, gweithdrefnau a rheolaethau ar gyfer rheoli risgiau AI. Mae’r strategaeth hon yn cynnwys sicrhau bod systemau AI yn dryloyw, yn eglur, yn atebol, ac yn cydymffurfio â chyfreithiau a rheoliadau perthnasol. Yn ogystal, mae monitro ac archwilio modelau AI yn barhaus yn hanfodol i nodi a lliniaru unrhyw risgiau posibl a allai godi dros amser. Yn olaf, mae angen i sefydliadau ddatblygu diwylliant o ddiogelwch AI, gan hyrwyddo ymwybyddiaeth, addysg a hyfforddiant ymhlith gweithwyr a rhanddeiliaid. Mae’r camau hyn yn cynnwys hyfforddiant ar y defnydd moesegol o AI, y risgiau sy’n gysylltiedig ag AI, a sut i nodi ac adrodd am faterion neu bryderon. 

    Mae'n debyg y bydd yr ymdrechion hyn yn arwain at fwy o gwmnïau'n adeiladu eu hadrannau AI Cyfrifol. Mae'r fframwaith llywodraethu newydd hwn yn mynd i'r afael â'r rhwystrau cyfreithiol a moesegol sy'n gysylltiedig ag AI trwy ddogfennu sut mae sefydliadau'n mynd atynt. Mae'r fframwaith a'i fentrau cysylltiedig am ddileu amwysedd i atal canlyniadau negyddol anfwriadol. Mae egwyddorion fframwaith AI Cyfrifol yn canolbwyntio ar ddylunio, datblygu a defnyddio AI mewn ffyrdd sydd o fudd i weithwyr, yn darparu gwerth i gwsmeriaid, ac yn effeithio'n gadarnhaol ar gymdeithas.

    Goblygiadau AI TRISM

    Gall goblygiadau ehangach AI TRISM gynnwys: 

    • Wrth i AI TRISM ddod yn fwyfwy pwysig, bydd angen i gwmnïau logi gweithwyr mwy medrus sy'n wybodus yn y maes hwn, fel dadansoddwyr diogelwch AI, rheolwyr risg, a moesegwyr.
    • Ystyriaethau moesegol a moesol newydd, megis yr angen am dryloywder, tegwch, ac atebolrwydd wrth ddefnyddio systemau AI.
    • Dyfeisiadau arloesol wedi'u hychwanegu at AI sy'n ddiogel, yn ddibynadwy ac yn ddibynadwy.
    • Mwy o bwysau ar reoleiddio gan y llywodraeth i amddiffyn unigolion a sefydliadau rhag risgiau sy'n gysylltiedig â systemau AI.
    • Mwy o ffocws ar sicrhau nad yw systemau AI yn rhagfarnllyd yn erbyn grwpiau neu unigolion penodol.
    • Cyfleoedd newydd i'r rhai sydd â sgiliau deallusrwydd artiffisial ac o bosibl disodli'r rhai hebddynt.
    • Mwy o ddefnydd o ynni a chapasiti storio data ar gyfer data hyfforddi sy'n cael ei ddiweddaru'n gyson.
    • Mwy o gwmnïau'n cael dirwy am beidio â mabwysiadu safonau AI Cyfrifol byd-eang.

    Cwestiynau i'w hystyried

    • Os ydych chi'n gweithio yn AI, sut mae'ch cwmni'n hyfforddi ei algorithmau i fod yn foesegol?
    • Beth yw heriau adeiladu systemau AI Cyfrifol?

    Cyfeiriadau mewnwelediad

    Cyfeiriwyd at y cysylltiadau poblogaidd a sefydliadol canlynol ar gyfer y mewnwelediad hwn: