Пристрастия към изкуствения интелект: Машините не са толкова обективни, колкото се надявахме

КРЕДИТ ЗА ИЗОБРАЖЕНИЕ:
Изображение на кредит
iStock

Пристрастия към изкуствения интелект: Машините не са толкова обективни, колкото се надявахме

СЪЗДАДЕНО ЗА УТРЕШНИЯ ФУТУРИСТ

Платформата Quantumrun Trends ще ви даде прозрения, инструменти и общност, за да изследвате и да процъфтявате от бъдещите тенденции.

СПЕЦИАЛНА ОФЕРТА

$5 НА МЕСЕЦ

Пристрастия към изкуствения интелект: Машините не са толкова обективни, колкото се надявахме

Подзаглавен текст
Всички са съгласни, че AI трябва да бъде безпристрастен, но премахването на пристрастията се оказва проблематично
    • Автор:
    • име Автор
      Quantumrun Foresight
    • Февруари 8, 2022

    Резюме на прозрението

    Въпреки че технологиите, управлявани от данни, обещават да насърчат справедливо общество, те често отразяват същите пристрастия, които хората таят, което води до потенциални несправедливости. Например, отклоненията в системите с изкуствен интелект (AI) могат неволно да влошат вредните стереотипи. Въпреки това се полагат усилия да се направят системите с изкуствен интелект по-справедливи, въпреки че това повдига сложни въпроси за баланса между полезност и справедливост и необходимостта от внимателно регулиране и разнообразие в техническите екипи.

    AI пристрастия общ контекст

    Надеждата е, че технологиите, управлявани от данни, ще помогнат на човечеството да създаде общество, в което справедливостта е норма за всички. Сегашната реалност обаче рисува различна картина. Много от пристрастията на хората, които са довели до несправедливости в миналото, сега се отразяват в алгоритмите, които управляват нашия дигитален свят. Тези пристрастия в системите с ИИ често произтичат от предразсъдъци на хората, които разработват тези системи, и тези пристрастия често проникват в тяхната работа.

    Вземете, например, проект от 2012 г., известен като ImageNet, който се стреми да привлече групово етикетиране на изображения за обучение на системи за машинно обучение. Голяма невронна мрежа, обучена на тези данни, впоследствие успя да идентифицира обекти с впечатляваща точност. Въпреки това, при по-внимателна проверка, изследователите откриха пристрастия, скрити в данните на ImageNet. В един конкретен случай, алгоритъм, обучен върху тези данни, беше предубеден към предположението, че всички софтуерни програмисти са бели мъже.

    Това пристрастие може потенциално да доведе до пренебрегване на жените за такива роли, когато процесът на наемане е автоматизиран. Пристрастията намериха място в наборите от данни, тъй като индивидът, добавящ етикети към изображенията на „жена“, включваше допълнителен етикет, който се състоеше от унизителен термин. Този пример илюстрира как предубежденията, независимо дали умишлени или несъзнателни, могат да проникнат дори в най-сложните AI системи, потенциално увековечавайки вредни стереотипи и неравенства.

    Разрушително въздействие 

    Усилията за справяне с пристрастията в данните и алгоритмите бяха инициирани от изследователи в различни публични и частни организации. В случая с проекта ImageNet, например, краудсорсингът беше използван за идентифициране и премахване на термини за етикетиране, които хвърлят унизителна светлина върху определени изображения. Тези мерки показаха, че наистина е възможно да се преконфигурират AI системите, за да бъдат по-справедливи.

    Някои експерти обаче твърдят, че премахването на пристрастията може потенциално да направи набор от данни по-малко ефективен, особено когато са налице множество пристрастия. Набор от данни, лишен от определени пристрастия, може да се окаже, че няма достатъчно информация за ефективна употреба. Това повдига въпроса как би изглеждал наистина разнообразен набор от данни за изображения и как може да се използва, без да се прави компромис с полезността му.

    Тази тенденция подчертава необходимостта от обмислен подход към използването на AI и технологии, управлявани от данни. За компаниите това може да означава инвестиране в инструменти за откриване на пристрастия и насърчаване на разнообразието в техническите екипи. За правителствата това може да включва прилагане на разпоредби за гарантиране на честна употреба на ИИ. 

    Последици от пристрастия към AI

    По-широките последици от пристрастията на AI могат да включват:

    • Организациите са проактивни в осигуряването на справедливост и недискриминация, тъй като използват AI за подобряване на производителността и производителността. 
    • Наличие на AI етик в екипите за разработка за откриване и смекчаване на етичните рискове в началото на проекта. 
    • Проектиране на AI продукти с ясно отчитане на фактори на разнообразието като пол, раса, класа и култура.
    • Привличане на представители от различни групи, които ще използват AI продукта на компанията, за да го тестват, преди да бъде пуснат.
    • Различни обществени услуги са ограничени за определени членове на обществото.
    • Определени членове на обществото не могат да получат достъп или да се класират за определени възможности за работа.
    • Правоприлагащите органи и професионалистите несправедливо се насочват към определени членове на обществото повече от други. 

    Въпроси за разглеждане

    • Оптимист ли сте, че автоматизираното вземане на решения ще бъде справедливо в бъдеще?
    • Какво относно вземането на решения с изкуствен интелект ви изнервя най-много?

    Препратки към Insight

    Следните популярни и институционални връзки бяха посочени за тази информация: