Nerazîbûna îstîxbarata artificial: Makîne ne ew qas ku me hêvî dikir ne objektîf in

KREDIYA WÊNE:
Kredê Image
iStock

Nerazîbûna îstîxbarata artificial: Makîne ne ew qas ku me hêvî dikir ne objektîf in

Nerazîbûna îstîxbarata artificial: Makîne ne ew qas ku me hêvî dikir ne objektîf in

Nivîsa binavkirî
Her kes dipejirîne ku AI-ê divê bêalî be, lê rakirina nelirêtiyê pirsgirêk e
    • Nivîskar:
    • Navê nivîskar
      Pêşbîniya Quantumrun
    • February 8, 2022

    Kurteya Insight

    Dema ku teknolojiyên dane-birêvekirî soza teşwîqkirina civakek dadperwer digirin, ew bi gelemperî heman nerastiyên ku mirovan diparêzin nîşan didin, ku dibe sedema neheqiyên potansiyel. Mînakî, nelirêtiyên di pergalên îstîxbarata sûnî (AI) de dikarin bêhemdî stereotipên zirardar xirab bikin. Lêbelê, hewildan têne kirin ku pergalên AI-ê wekhevtir bikin, her çend ev pirsên tevlihev di derheqê hevsengiya di navbera bikêrhatî û dadperweriyê de, û hewcedariya rêzikname û cihêrengiya ramanî di tîmên teknolojiyê de derdixe holê.

    AI bias çarçoveya giştî

    Hêvî ev e ku teknolojiyên ku ji hêla daneyê ve têne rêve kirin dê alîkariya mirovahiyê bike di damezrandina civakek ku edalet ji bo herkesî norm e. Lêbelê, rastiya heyî wêneyek cûda dide. Gelek alîgirên ku mirovan hene, ku berê bûne sedema neheqiyan, naha di algorîtmayên ku cîhana meya dîjîtal birêve dibin de têne xuyang kirin. Van beralîkirinên di pergalên AI-ê de bi gelemperî ji pêşdaraziyên kesên ku van pergalan pêşdixînin derdikevin, û ev nerastî bi gelemperî di xebata wan de diherike.

    Mînakî, projeyek di sala 2012-an de ku bi navê ImageNet tê zanîn, bigirin, ku dixwest ku etîketkirina wêneyan ji bo perwerdekirina pergalên fêrbûna makîneyê kom bike. Tora neuralî ya mezin a ku li ser vê daneyê hatî perwerde kirin, di dûv re karîbû tiştan bi rastbûna berbiçav nas bike. Lêbelê, li ser vekolînek nêzîk, lêkolîner pêşbaziyên di nav daneyên ImageNet de veşartî vedîtin. Di rewşek taybetî de, algorîtmayek ku li ser vê daneyê hatî perwerde kirin berbi wê yekê bû ku hemî bernamenûsên nermalavê zilamên spî ne.

    Dema ku pêvajoya kirêgirtinê bixweber be, dibe ku ev alîgiriyê bibe sedem ku jin ji bo rolên weha werin paşguh kirin. Nerazîbûn riya xwe di nav komên daneyan de dîtin ji ber ku kesê ku etîketan li wêneyên "jin" zêde dike, etîketek din jî heye ku ji têgehek piçûkxistinê pêk tê. Ev mînak diyar dike ka çawa bialozî, çi bi mebest an jî ne mebest, dikare di nav pergalên AI-yê yên herî sofîstîke de jî bikeve, potansiyel stereotip û newekheviyên zirardar berdewam dike.

    Bandora têkçûyî 

    Hewldanên ji bo çareserkirina neyartiya di dane û algorîtmayan de ji hêla lêkolîneran ve li seranserê rêxistinên cûda yên gelemperî û taybet hatine destpêkirin. Mînakî, di mijara projeya ImageNet de, crowdsourcing hate bikar anîn da ku şertên etîketkirinê yên ku ronahiyek piçûk dixe ser hin wêneyan nas bike û ji holê rake. Van tedbîran destnîşan kirin ku bi rastî gengaz e ku pergalên AI-ê ji nû ve saz bikin da ku bêtir wekhev bin.

    Lêbelê, hin pispor argûman dikin ku rakirina pêşdaraziyê dikare bi potansiyel komek daneyê kêmtir bandorker bike, nemaze dema ku pir alîgiran dileyizin. Komek daneya ku ji hin alîgiran veqetandî dibe ku ji bo karanîna bi bandor agahiyek têr nebe. Ew pirsê radixe ber çavan ku dê berhevokek daneya wêneyê ya bi rastî cihêreng çawa xuya bike, û meriv çawa dikare bêyî ku tawîz bide karanîna wê were bikar anîn.

    Ev meyl hewcedariya nêzîkatiyek ramanî ya ji bo karanîna AI-ê û teknolojiyên dane-rêvebir destnîşan dike. Ji bo pargîdaniyan, ev dibe ku were wateya veberhênana li amûrên vedîtina bias û pêşvebirina cihêrengiyê di tîmên teknolojiyê de. Ji bo hukûmetan, ew dikare pêkanîna rêziknameyan tevbigere da ku karanîna adil a AI-yê misoger bike. 

    Encamên biasiya AI

    Encamên berfireh ên biasiya AI-ê dibe ku ev in:

    • Rêxistinên ku di misogerkirina dadperwerî û ne-cudakarîyê de pêşeng in ji ber ku ew AI-yê bi kar tînin da ku hilberî û performansê baştir bikin. 
    • Di tîmên pêşkeftinê de xwedan etîknasek AI-yê ye ku di destpêka projeyekê de xetereyên exlaqî tespît bike û kêm bike. 
    • Sêwirana hilberên AI-ê bi faktorên cihêreng ên wekî zayend, nijad, çîn û çand bi zelalî di hişê xwe de.
    • Wergirtina nûnerên ji komên cihêreng ên ku dê hilberek AI-ya pargîdaniyek bikar bînin da ku wê berî ku were berdan ceribandin.
    • Karûbarên gelemperî yên cihêreng ji hin endamên gel re têne sînorkirin.
    • Hin endamên gel nikanin bigihîjin hin derfetên kar an jêhatî bibin.
    • Dezgehên dadrêsî û pisporan bi neheqî hin endamên civakê ji yên din zêdetir dikin hedef. 

    Pirsên ku têne nirxandin

    • Ma hûn geşbîn in ku dê di pêşerojê de biryara otomatîkî adil be?
    • Di derbarê biryara AI-ê de çi we herî zêde aciz dike?

    Referansên Insight

    Girêdanên populer û sazî yên jêrîn ji bo vê têgihiştinê hatine referans kirin: