Пристрасност вештачке интелигенције: Машине нису тако објективне као што смо се надали

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Пристрасност вештачке интелигенције: Машине нису тако објективне као што смо се надали

Пристрасност вештачке интелигенције: Машине нису тако објективне као што смо се надали

Текст поднаслова
Сви се слажу да АИ треба да буде непристрасна, али уклањање пристрасности се показује проблематичним
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • 8. фебруара 2022. године

    Сажетак увида

    Док технологије засноване на подацима обећавају неговање праведног друштва, оне често одражавају исте предрасуде које људи гаје, што доводи до потенцијалних неправди. На пример, пристрасности у системима вештачке интелигенције (АИ) могу ненамерно да погоршају штетне стереотипе. Међутим, у току су напори да се системи вештачке интелигенције учине праведнијим, иако то поставља сложена питања о равнотежи између корисности и правичности и потребе за промишљеном регулацијом и разноврсношћу у техничким тимовима.

    Општи контекст пристрасности АИ

    Надамо се да ће технологије вођене подацима помоћи човечанству да успостави друштво у којем је правичност норма за све. Међутим, садашња стварност даје другачију слику. Многе предрасуде које људи имају, а које су довеле до неправде у прошлости, сада се огледају у алгоритмима који управљају нашим дигиталним светом. Ове предрасуде у системима вештачке интелигенције често потичу од предрасуда појединаца који развијају ове системе, и те пристрасности често продиру у њихов рад.

    Узмимо, на пример, пројекат из 2012. године познат као ИмагеНет, који је настојао да прикупи етикете слика за обуку система машинског учења. Велика неуронска мрежа обучена на овим подацима је касније била у стању да идентификује објекте са импресивном тачношћу. Међутим, након детаљнијег прегледа, истраживачи су открили пристрасности скривене у подацима ИмагеНет-а. У једном конкретном случају, алгоритам обучен на овим подацима био је пристрасан према претпоставци да су сви софтверски програмери белци.

    Ова пристрасност би потенцијално могла довести до тога да жене буду занемарене за такве улоге када је процес запошљавања аутоматизован. Предрасуде су се нашле у скуповима података јер су појединачне ознаке које су додавале сликама „жене“ укључивале додатну ознаку која се састојала од погрдног израза. Овај пример илуструје како пристрасности, било намерне или ненамерне, могу да се инфилтрирају чак и у најсофистицираније системе вештачке интелигенције, потенцијално одржавајући штетне стереотипе и неједнакости.

    Ометајући утицај 

    Истраживачи из разних јавних и приватних организација покренули су напоре да се позабаве пристрасношћу у подацима и алгоритмима. У случају ИмагеНет пројекта, на пример, цровдсоурцинг је коришћен да би се идентификовали и елиминисали термини означавања који бацају погрдно светло на одређене слике. Ове мере су показале да је заиста могуће реконфигурисати системе вештачке интелигенције како би били праведнији.

    Међутим, неки стручњаци тврде да би уклањање пристрасности могло потенцијално учинити скуп података мање ефикасним, посебно када је у игри вишеструка пристрасност. Скуп података без одређених предрасуда може на крају да нема довољно информација за ефективну употребу. Поставља се питање како би изгледао заиста разноврстан скуп података слика и како би се могао користити без угрожавања његове корисности.

    Овај тренд наглашава потребу за промишљеним приступом коришћењу АИ и технологија вођених подацима. За компаније то може значити улагање у алате за откривање пристрасности и промовисање разноликости у технолошким тимовима. За владе, то би могло укључивати имплементацију прописа како би се осигурала поштена употреба АИ. 

    Импликације пристрасности АИ

    Шире импликације пристрасности АИ могу укључивати:

    • Организације су проактивне у обезбеђивању правичности и недискриминације док користе вештачку интелигенцију да побољшају продуктивност и учинак. 
    • Имати етичара вештачке интелигенције у развојним тимовима за откривање и ублажавање етичких ризика у раној фази пројекта. 
    • Дизајнирање АИ производа са јасном на уму факторе разноликости као што су пол, раса, класа и култура.
    • Добијање представника различитих група које ће користити АИ производ компаније да га тестирају пре него што буде објављен.
    • Различите јавне услуге су ограничене одређеним члановима јавности.
    • Одређени чланови јавности нису у могућности да приступе или се квалификују за одређене могућности за посао.
    • Агенције за спровођење закона и професионалци неправедно циљају одређене чланове друштва више од других. 

    Питања која треба размотрити

    • Да ли сте оптимисти да ће аутоматизовано доношење одлука бити праведно у будућности?
    • Шта је са АИ доношењем одлука које вас чини најнервознијим?

    Референце за увид

    Следеће популарне и институционалне везе су референциране за овај увид: