Пристрасност на вештачката интелигенција: Машините не се толку објективни како што се надевавме

КРЕДИТ НА СЛИКА:
Слика кредит
iStock

Пристрасност на вештачката интелигенција: Машините не се толку објективни како што се надевавме

Пристрасност на вештачката интелигенција: Машините не се толку објективни како што се надевавме

Текст за поднаслов
Сите се согласуваат дека вештачката интелигенција треба да биде непристрасна, но отстранувањето на предрасудите се покажува како проблематично
    • автор:
    • име на авторот
      Quantumrun Foresight
    • Февруари 8, 2022

    Резиме на увид

    Додека технологиите управувани од податоци ветуваат за поттикнување фер општество, тие често ги одразуваат истите предрасуди што ги имаат луѓето, што доведува до потенцијални неправди. На пример, предрасудите во системите за вештачка интелигенција (ВИ) може ненамерно да ги влошат штетните стереотипи. Сепак, во тек се напори да се направат системите за вештачка интелигенција поправедни, иако ова покренува сложени прашања за рамнотежата помеѓу корисноста и правичноста, како и потребата за внимателна регулација и разновидност во технолошките тимови.

    Општ контекст на пристрасност на вештачката интелигенција

    Се надеваме дека технологиите управувани од податоците ќе му помогнат на човештвото да воспостави општество каде правичноста е норма за сите. Меѓутоа, сегашната реалност дава поинаква слика. Многу од предрасудите што ги имаат луѓето, кои доведоа до неправди во минатото, сега се пресликуваат во алгоритмите што управуваат со нашиот дигитален свет. Овие предрасуди во системите за вештачка интелигенција често произлегуваат од предрасудите на поединците кои ги развиваат овие системи, а овие предрасуди често навлегуваат во нивната работа.

    Да го земеме, на пример, проект од 2012 година познат како ImageNet, кој се обидуваше да го придобие означувањето на слики за обука на системи за машинско учење. Голема невронска мрежа обучена на овие податоци последователно беше во можност да идентификува објекти со импресивна точност. Сепак, по поблиска проверка, истражувачите открија предрасуди скриени во податоците на ImageNet. Во еден конкретен случај, алгоритам обучен на овие податоци беше пристрасен кон претпоставката дека сите софтверски програмери се белци.

    Оваа пристрасност потенцијално може да резултира со тоа жените да бидат занемарени за такви улоги кога процесот на вработување е автоматизиран. Предрасудите се најдоа во збирките на податоци бидејќи поединецот што додаваше етикети на сликите на „жена“ вклучуваше дополнителна ознака која се состоеше од погрден термин. Овој пример илустрира како предрасудите, без разлика дали се намерни или ненамерни, можат да се инфилтрираат дури и во најсофистицираните системи за вештачка интелигенција, потенцијално овековечувајќи ги штетните стереотипи и нееднаквости.

    Нарушувачко влијание 

    Напорите за справување со пристрасноста во податоците и алгоритмите се иницирани од истражувачи низ различни јавни и приватни организации. Во случајот со проектот ImageNet, на пример, групниот извор беше употребен за да се идентификуваат и елиминираат термините за етикетирање кои фрлаат погрдно светло на одредени слики. Овие мерки покажаа дека навистина е можно да се реконфигурираат системите за вештачка интелигенција за да бидат поправедни.

    Сепак, некои експерти тврдат дека отстранувањето на пристрасност може потенцијално да го направи множеството податоци помалку ефективно, особено кога се во игра повеќекратни предрасуди. Збир на податоци без одредени предрасуди може да заврши без доволно информации за ефективна употреба. Тоа го покренува прашањето како би изгледал навистина разновиден збир на податоци за слики и како може да се користи без да се загрози неговата корисност.

    Овој тренд ја нагласува потребата за внимателен пристап кон употребата на вештачка интелигенција и технологии водени од податоци. За компаниите, ова може да значи инвестирање во алатки за откривање пристрасност и промовирање на различноста во технолошките тимови. За владите, тоа би можело да вклучи спроведување регулативи за да се обезбеди правична употреба на вештачката интелигенција. 

    Импликации од пристрасност на ВИ

    Пошироките импликации на пристрасноста на ВИ може да вклучуваат:

    • Организациите се проактивни во обезбедувањето правичност и недискриминација бидејќи ја користат вештачката интелигенција за да ја подобрат продуктивноста и перформансите. 
    • Имајќи етичар за вештачка интелигенција во развојните тимови за откривање и ублажување на етичките ризици рано во проектот. 
    • Дизајнирање производи со вештачка интелигенција со фактори на различност како што се пол, раса, класа и култура јасно на ум.
    • Добивање претставници од различни групи кои ќе користат производ со вештачка интелигенција на компанијата за да го тестираат пред да биде објавен.
    • Различни јавни услуги се ограничени од одредени членови на јавноста.
    • Одредени членови на јавноста не можат да пристапат или да се квалификуваат за одредени можности за работа.
    • Агенциите за спроведување на законот и професионалците неправедно таргетираат одредени членови на општеството повеќе од другите. 

    Прашања што треба да се разгледаат

    • Дали сте оптимист дека автоматското одлучување ќе биде фер во иднина?
    • Што е со донесувањето одлуки за вештачка интелигенција ве прави најнервозни?

    Увид референци

    Следниве популарни и институционални врски беа упатени за овој увид: