Tuedd deallusrwydd artiffisial: Nid yw peiriannau mor wrthrychol ag yr oeddem wedi gobeithio

CREDYD DELWEDD:
Credyd Delwedd
iStock

Tuedd deallusrwydd artiffisial: Nid yw peiriannau mor wrthrychol ag yr oeddem wedi gobeithio

Tuedd deallusrwydd artiffisial: Nid yw peiriannau mor wrthrychol ag yr oeddem wedi gobeithio

Testun is-bennawd
Mae pawb yn cytuno y dylai AI fod yn ddiduedd, ond mae cael gwared ar ragfarnau yn achosi problemau
    • Awdur:
    • enw awdur
      Rhagolwg Quantumrun
    • Chwefror 8, 2022

    Crynodeb mewnwelediad

    Er bod technolegau sy'n cael eu gyrru gan ddata yn dal yr addewid o feithrin cymdeithas deg, maent yn aml yn adlewyrchu'r un rhagfarnau ag y mae bodau dynol yn eu coleddu, gan arwain at anghyfiawnderau posibl. Er enghraifft, gall rhagfarnau mewn systemau deallusrwydd artiffisial (AI) waethygu stereoteipiau niweidiol yn anfwriadol. Fodd bynnag, mae ymdrechion ar y gweill i wneud systemau AI yn decach, er bod hyn yn codi cwestiynau cymhleth am y cydbwysedd rhwng defnyddioldeb a thegwch, a'r angen am reoleiddio meddylgar ac amrywiaeth mewn timau technoleg.

    AI rhagfarn cyd-destun cyffredinol

    Y gobaith yw y bydd technolegau a yrrir gan ddata yn cynorthwyo dynolryw i sefydlu cymdeithas lle mae tegwch yn norm i bawb. Fodd bynnag, mae'r realiti presennol yn rhoi darlun gwahanol. Mae llawer o’r rhagfarnau sydd gan fodau dynol, sydd wedi arwain at anghyfiawnderau yn y gorffennol, bellach yn cael eu hadlewyrchu yn yr algorithmau sy’n llywodraethu ein byd digidol. Mae'r rhagfarnau hyn mewn systemau AI yn aml yn deillio o ragfarnau'r unigolion sy'n datblygu'r systemau hyn, ac mae'r rhagfarnau hyn yn aml yn treiddio i'w gwaith.

    Cymerwch, er enghraifft, brosiect yn 2012 o'r enw ImageNet, a oedd yn ceisio torfoli'r broses o labelu delweddau ar gyfer hyfforddi systemau dysgu peirianyddol. Roedd rhwydwaith niwral mawr a hyfforddwyd ar y data hwn wedyn yn gallu adnabod gwrthrychau gyda chywirdeb trawiadol. Fodd bynnag, o archwilio'n agosach, darganfu ymchwilwyr ragfarnau sydd wedi'u cuddio o fewn data ImageNet. Mewn un achos penodol, roedd algorithm a hyfforddwyd ar y data hwn yn gogwyddo tuag at y dybiaeth bod pob rhaglennydd meddalwedd yn ddynion gwyn.

    Gallai'r duedd hon o bosibl olygu bod menywod yn cael eu hanwybyddu am rolau o'r fath pan fydd y broses llogi yn awtomataidd. Canfu'r rhagfarnau eu ffordd i mewn i'r setiau data oherwydd bod yr unigolyn a oedd yn ychwanegu labeli at ddelweddau o "fenyw" yn cynnwys label ychwanegol a oedd yn cynnwys term difrïol. Mae’r enghraifft hon yn dangos sut y gall rhagfarnau, boed yn fwriadol neu’n anfwriadol, ymdreiddio hyd yn oed i’r systemau AI mwyaf soffistigedig, gan barhau â stereoteipiau ac anghydraddoldebau niweidiol o bosibl.

    Effaith aflonyddgar 

    Mae ymdrechion i fynd i'r afael â thuedd mewn data ac algorithmau wedi'u cychwyn gan ymchwilwyr ar draws amrywiol sefydliadau cyhoeddus a phreifat. Yn achos y prosiect ImageNet, er enghraifft, defnyddiwyd torfoli i nodi a dileu termau labelu sy'n taflu goleuni difrïol ar rai delweddau. Dangosodd y mesurau hyn ei bod yn wir yn bosibl ad-drefnu systemau AI i fod yn decach.

    Fodd bynnag, mae rhai arbenigwyr yn dadlau y gallai dileu rhagfarn o bosibl wneud set ddata yn llai effeithiol, yn enwedig pan fo rhagfarnau lluosog ar waith. Mae'n bosibl y bydd set ddata sydd wedi'i thynnu o ragfarnau penodol yn arwain at ddiffyg gwybodaeth ddigonol i'w defnyddio'n effeithiol. Mae’n codi’r cwestiwn o sut olwg fyddai ar set ddata delwedd wirioneddol amrywiol, a sut y gellid ei defnyddio heb gyfaddawdu ar ei ddefnyddioldeb.

    Mae’r duedd hon yn tanlinellu’r angen am ddull meddylgar o ddefnyddio AI a thechnolegau sy’n cael eu gyrru gan ddata. I gwmnïau, gallai hyn olygu buddsoddi mewn offer canfod rhagfarn a hyrwyddo amrywiaeth mewn timau technoleg. I lywodraethau, gallai olygu gweithredu rheoliadau i sicrhau defnydd teg o AI. 

    Goblygiadau rhagfarn AI

    Gall goblygiadau ehangach rhagfarn AI gynnwys:

    • Sefydliadau yn rhagweithiol wrth sicrhau tegwch a pheidio â gwahaniaethu wrth iddynt drosoli deallusrwydd artiffisial i wella cynhyrchiant a pherfformiad. 
    • Cael moesegydd AI mewn timau datblygu i ganfod a lliniaru risgiau moesegol yn gynnar mewn prosiect. 
    • Dylunio cynhyrchion AI gyda ffactorau amrywiaeth fel rhyw, hil, dosbarth, a diwylliant yn amlwg mewn golwg.
    • Cael cynrychiolwyr o'r grwpiau amrywiol a fydd yn defnyddio cynnyrch AI cwmni i'w brofi cyn iddo gael ei ryddhau.
    • Cyfyngu ar wasanaethau cyhoeddus amrywiol gan rai aelodau o'r cyhoedd.
    • Rhai aelodau o'r cyhoedd yn methu â chael mynediad at neu gymhwyso ar gyfer rhai cyfleoedd gwaith.
    • Asiantaethau gorfodi'r gyfraith a gweithwyr proffesiynol yn targedu rhai aelodau o gymdeithas yn annheg yn fwy nag eraill. 

    Cwestiynau i'w hystyried

    • A ydych yn obeithiol y bydd gwneud penderfyniadau awtomataidd yn deg yn y dyfodol?
    • Beth am wneud penderfyniadau AI sy'n eich gwneud chi fwyaf nerfus?

    Cyfeiriadau mewnwelediad

    Cyfeiriwyd at y cysylltiadau poblogaidd a sefydliadol canlynol ar gyfer y mewnwelediad hwn: