Bias intelijen buatan: Mesin ora objektif kaya sing dikarepake

KREDIT GAMBAR:
Kredit gambar
iStock

Bias intelijen buatan: Mesin ora objektif kaya sing dikarepake

Bias intelijen buatan: Mesin ora objektif kaya sing dikarepake

Teks subjudul
Saben uwong setuju yen AI kudu ora bias, nanging mbusak bias mbuktekake masalah
    • Babagan Author:
    • Jeneng panganggit
      Quantumrun Foresight
    • Februari 8, 2022

    Ringkesan wawasan

    Nalika teknologi sing didhukung data nduweni janji kanggo nuwuhake masyarakat sing adil, dheweke asring nggambarake bias sing padha karo manungsa, sing nyebabake ketidakadilan. Contone, bias ing sistem intelijen buatan (AI) bisa kanthi ora sengaja ngrusak stereotip sing mbebayani. Nanging, upaya ditindakake kanggo nggawe sistem AI luwih adil, sanajan iki nuwuhake pitakonan rumit babagan keseimbangan antarane sarana lan keadilan, lan kabutuhan regulasi lan keragaman ing tim teknologi.

    konteks umum bias AI

    Pangarep-arep yaiku teknologi sing didhukung data bakal mbantu manungsa nggawe masyarakat sing adil minangka norma kanggo kabeh. Nanging, kasunyatan saiki nggambarake gambar sing beda. Akeh bias sing diduweni manungsa, sing wis nyebabake ketidakadilan ing jaman kepungkur, saiki dicerminake ing algoritma sing ngatur jagad digital kita. Bias iki ing sistem AI asring asale saka prasangka individu sing ngembangake sistem kasebut, lan bias kasebut asring mlebu ing karyane.

    Contone, contone, proyek ing 2012 sing dikenal minangka ImageNet, sing ngupayakake akeh sumber label gambar kanggo latihan sistem pembelajaran mesin. Jaringan saraf gedhe sing dilatih ing data iki banjur bisa ngenali obyek kanthi akurasi sing apik banget. Nanging, nalika dipriksa kanthi tliti, peneliti nemokake bias sing didhelikake ing data ImageNet. Ing kasus tartamtu, algoritma sing dilatih ing data iki bias menyang asumsi yen kabeh programer piranti lunak iku wong kulit putih.

    Bias iki bisa nyebabake wanita ora digatekake kanggo peran kasebut nalika proses perekrutan otomatis. Bias kasebut mlebu ing set data amarga individu sing nambahake label menyang gambar "wanita" kalebu label tambahan sing kalebu istilah sing ngremehake. Conto iki nggambarake kepiye bias, disengaja utawa ora disengaja, bisa nyusup sanajan sistem AI sing paling canggih, sing bisa nyebabake stereotip lan ketimpangan sing mbebayani.

    Dampak gangguan 

    Upaya kanggo ngatasi bias ing data lan algoritma wis diwiwiti dening peneliti ing macem-macem organisasi umum lan pribadi. Ing kasus proyek ImageNet, umpamane, crowdsourcing digunakake kanggo ngenali lan ngilangi istilah-istilah pelabelan sing ngremehake gambar tartamtu. Langkah-langkah kasebut nuduhake manawa bisa ngatur maneh sistem AI supaya luwih adil.

    Nanging, sawetara ahli mbantah manawa mbusak bias bisa nyebabake set data dadi kurang efektif, utamane nalika ana macem-macem bias. Sakumpulan data sing dicopot saka bias tartamtu bisa uga ora duwe informasi sing cukup kanggo panggunaan sing efektif. Iki nuwuhake pitakon babagan apa set data gambar sing beda-beda, lan kepiye carane bisa digunakake tanpa kompromi kegunaane.

    Tren iki negesake kabutuhan pendekatan sing wicaksana babagan panggunaan AI lan teknologi sing didorong data. Kanggo perusahaan, iki bisa uga tegese nandur modal ing alat deteksi bias lan promosi keragaman ing tim teknologi. Kanggo pamrentah, bisa uga kalebu ngetrapake peraturan kanggo njamin panggunaan AI sing adil. 

    Implikasi saka bias AI

    Implikasi sing luwih akeh saka bias AI bisa uga kalebu:

    • Organisasi dadi proaktif kanggo njamin keadilan lan non-diskriminasi nalika nggunakake AI kanggo nambah produktivitas lan kinerja. 
    • Nduwe ahli etika AI ing tim pangembangan kanggo ndeteksi lan nyuda risiko etika ing awal proyek. 
    • Ngrancang produk AI kanthi faktor keragaman kayata jender, ras, kelas, lan budaya kanthi jelas.
    • Entuk perwakilan saka macem-macem klompok sing bakal nggunakake produk AI perusahaan kanggo nyoba sadurunge dirilis.
    • Macem-macem layanan umum sing diwatesi saka anggota masarakat tartamtu.
    • Anggota masyarakat tartamtu ora bisa ngakses utawa nduweni kualifikasi kanggo kesempatan kerja tartamtu.
    • Lembaga penegak hukum lan profesional ora adil nargetake anggota masyarakat tartamtu tinimbang liyane. 

    Pitakon sing kudu dipikirake

    • Apa sampeyan optimis yen nggawe keputusan otomatis bakal adil ing mangsa ngarep?
    • Kepiye babagan nggawe keputusan AI nggawe sampeyan paling gugup?

    Referensi wawasan

    Link populer lan institusional ing ngisor iki dirujuk kanggo wawasan iki: