Прадузятасць штучнага інтэлекту: машыны не такія аб'ектыўныя, як мы спадзяваліся

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Прадузятасць штучнага інтэлекту: машыны не такія аб'ектыўныя, як мы спадзяваліся

Прадузятасць штучнага інтэлекту: машыны не такія аб'ектыўныя, як мы спадзяваліся

Тэкст падзагалоўка
Усе згодныя з тым, што штучны інтэлект павінен быць непрадузятым, але ліквідаваць прадузятасці аказваецца праблематычным
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Люты 8, 2022

    Кароткі агляд

    У той час як тэхналогіі, якія кіруюцца дадзенымі, абяцаюць пабудаваць справядлівае грамадства, яны часта адлюстроўваюць тыя ж прадузятасці, што і людзі, што вядзе да патэнцыйнай несправядлівасці. Напрыклад, прадузятасці ў сістэмах штучнага інтэлекту (AI) могуць ненаўмысна пагоршыць шкодныя стэрэатыпы. Тым не менш, прадпрымаюцца намаганні, каб зрабіць сістэмы штучнага інтэлекту больш справядлівымі, хоць гэта ставіць складаныя пытанні аб балансе паміж карыснасцю і справядлівасцю, а таксама аб неабходнасці прадуманага рэгулявання і разнастайнасці ў тэхнічных камандах.

    Агульны кантэкст зрушэння штучнага інтэлекту

    Ёсць надзея, што тэхналогіі, якія кіруюцца дадзенымі, дапамогуць чалавецтву стварыць грамадства, дзе справядлівасць будзе нормай для ўсіх. Аднак цяперашняя рэчаіснасць малюе іншую карціну. Многія прадузятасці людзей, якія прыводзілі да несправядлівасці ў мінулым, цяпер адлюстроўваюцца ў алгарытмах, якія кіруюць нашым лічбавым светам. Гэтыя прадузятасці ў сістэмах штучнага інтэлекту часта вынікаюць з забабонаў людзей, якія распрацоўваюць гэтыя сістэмы, і гэтыя прадузятасці часта прасочваюцца ў іх працы.

    Возьмем, да прыкладу, праект у 2012 годзе, вядомы як ImageNet, які імкнуўся да краўдсорсінгу маркіроўкі малюнкаў для навучання сістэм машыннага навучання. Вялікая нейронавая сетка, навучаная на гэтых дадзеных, пасля змагла ідэнтыфікаваць аб'екты з уражлівай дакладнасцю. Аднак пры больш уважлівым разглядзе даследчыкі выявілі прадузятасці, схаваныя ў дадзеных ImageNet. У адным канкрэтным выпадку алгарытм, навучаны на гэтых дадзеных, быў схілены да здагадкі, што ўсе праграмісты - белыя людзі.

    Гэтая прадузятасць патэнцыйна можа прывесці да таго, што жанчыны будуць ігнаравацца на такія ролі, калі працэс найму аўтаматызаваны. Прадузятасці знайшлі свой шлях у наборы даных, таму што чалавек, які дадаў цэтлікі да выяваў «жанчыны», уключыў дадатковы ярлык, які складаўся з прыніжальнага тэрміна. Гэты прыклад паказвае, як прадузятасці, наўмысныя ці ненаўмысныя, могуць пранікаць нават у самыя складаныя сістэмы штучнага інтэлекту, патэнцыйна захоўваючы шкодныя стэрэатыпы і няроўнасць.

    Разбуральнае ўздзеянне 

    Даследчыкі з розных дзяржаўных і прыватных арганізацый распачалі спробы ліквідаваць зрухі ў дадзеных і алгарытмах. У выпадку з праектам ImageNet, напрыклад, краўдсорсінг быў выкарыстаны для выяўлення і ліквідацыі тэрмінаў маркіроўкі, якія кідаюць зняважлівае святло на пэўныя выявы. Гэтыя меры паказалі, што сапраўды магчыма пераналадзіць сістэмы штучнага інтэлекту, каб яны былі больш справядлівымі.

    Тым не менш, некаторыя эксперты сцвярджаюць, што выдаленне зрушэння патэнцыйна можа зрабіць набор даных менш эфектыўным, асабліва калі дзейнічае некалькі зрушэнняў. У наборы даных, пазбаўленых пэўных прадузятасцей, можа не хапаць інфармацыі для эфектыўнага выкарыстання. Узнікае пытанне аб тым, як будзе выглядаць сапраўды разнастайны набор даных малюнкаў і як яго можна выкарыстоўваць без шкоды для яго карыснасці.

    Гэтая тэндэнцыя падкрэслівае неабходнасць прадуманага падыходу да выкарыстання штучнага інтэлекту і тэхналогій, якія кіруюцца дадзенымі. Для кампаній гэта можа азначаць інвестыцыі ў інструменты выяўлення прадузятасці і прасоўванне разнастайнасці ў тэхнічных камандах. Для ўрадаў гэта можа ўключаць выкананне правілаў для забеспячэння справядлівага выкарыстання штучнага інтэлекту. 

    Наступствы прадузятасці штучнага інтэлекту

    Больш шырокія наступствы прадузятасці штучнага інтэлекту могуць уключаць:

    • Арганізацыі праяўляюць актыўнасць у забеспячэнні справядлівасці і адсутнасці дыскрымінацыі, калі выкарыстоўваюць ІІ для павышэння прадукцыйнасці і прадукцыйнасці. 
    • Наяўнасць спецыяліста па этыцы штучнага інтэлекту ў групах распрацоўшчыкаў для выяўлення і змякчэння этычных рызык на ранніх стадыях праекта. 
    • Пры распрацоўцы прадуктаў штучнага інтэлекту дакладна ўлічваюцца такія фактары разнастайнасці, як пол, раса, клас і культура.
    • Прыцягненне прадстаўнікоў розных груп, якія будуць выкарыстоўваць прадукт штучнага інтэлекту кампаніі, каб праверыць яго перад выпускам.
    • Разнастайныя дзяржаўныя паслугі абмежаваныя для пэўных прадстаўнікоў насельніцтва.
    • Некаторыя прадстаўнікі грамадскасці не могуць атрымаць доступ да пэўных магчымасцей працаўладкавання або прэтэндаваць на іх.
    • Праваахоўныя органы і спецыялісты несправядліва нацэльваюць на пэўных членаў грамадства больш, чым на іншых. 

    Пытанні для разгляду

    • Ці аптымістычна настроены вы, што аўтаматызаванае прыняцце рашэнняў будзе справядлівым у будучыні?
    • Што вас больш за ўсё нервуе пры прыняцці рашэнняў ІІ?

    Спасылкі Insight

    Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі: