Упередженість штучного інтелекту: машини не такі об’єктивні, як ми сподівалися

КРЕДИТ ЗОБРАЖЕННЯ:
Кредит зображення
iStock

Упередженість штучного інтелекту: машини не такі об’єктивні, як ми сподівалися

Упередженість штучного інтелекту: машини не такі об’єктивні, як ми сподівалися

Текст підзаголовка
Усі погоджуються, що штучний інтелект має бути неупередженим, але усунути упередження виявляється проблематичним
    • Автор:
    • ім'я автора
      Quantumrun Foresight
    • 8 Лютого, 2022

    Короткий огляд

    Хоча технології, що керуються даними, обіцяють сприяти справедливому суспільству, вони часто відображають ті самі упередження, які живуть у людей, що призводить до потенційної несправедливості. Наприклад, упередження в системах штучного інтелекту (AI) можуть ненавмисно погіршити шкідливі стереотипи. Проте зараз докладаються зусилля, щоб зробити системи штучного інтелекту більш справедливими, хоча це піднімає складні питання про баланс між корисністю та справедливістю, а також про необхідність продуманого регулювання та різноманітності в технічних командах.

    Загальний контекст упередженості ШІ

    Є надія, що технології, які базуються на даних, допоможуть людству створити суспільство, де справедливість буде нормою для всіх. Однак нинішня дійсність малює іншу картину. Багато людських упереджень, які призводили до несправедливості в минулому, тепер відображаються в алгоритмах, які керують нашим цифровим світом. Ці упередження в системах ШІ часто виникають через упередження людей, які розробляють ці системи, і ці упередження часто просочуються в їхню роботу.

    Візьмемо, наприклад, проект 2012 року, відомий як ImageNet, який намагався залучити краудсорсинг до маркування зображень для навчання систем машинного навчання. Велика нейронна мережа, навчена на цих даних, згодом змогла ідентифікувати об’єкти з вражаючою точністю. Однак після більш детального вивчення дослідники виявили упередження, приховані в даних ImageNet. В одному конкретному випадку алгоритм, навчений на цих даних, був упереджений до припущення, що всі програмісти — білі люди.

    Це упередження потенційно може призвести до того, що жінок не помічатимуть на таких ролях, коли процес найму буде автоматизованим. Упередження знайшли свій шлях до наборів даних, тому що особи, які додавали мітки до зображень «жінки», містили додаткову мітку, яка складалася з принизливого терміну. Цей приклад ілюструє, як упередження, навмисні чи ненавмисні, можуть проникнути навіть у найскладніші системи ШІ, потенційно зберігаючи шкідливі стереотипи та нерівність.

    Руйнівний вплив 

    Зусилля щодо усунення упередженості в даних і алгоритмах були ініційовані дослідниками з різних державних і приватних організацій. У випадку проекту ImageNet, наприклад, краудсорсинг використовувався для виявлення та усунення термінів маркування, які кидають принизливе світло на певні зображення. Ці заходи продемонстрували, що справді можливо змінити конфігурацію систем штучного інтелекту, щоб вони були більш справедливими.

    Однак деякі експерти стверджують, що усунення зміщення потенційно може зробити набір даних менш ефективним, особливо коли діють численні зміщення. У наборі даних, позбавленому певних упереджень, може не вистачати інформації для ефективного використання. Це піднімає питання про те, як би виглядав справді різноманітний набір даних зображень і як його можна використовувати без шкоди для його корисності.

    Ця тенденція підкреслює необхідність продуманого підходу до використання ШІ та технологій, керованих даними. Для компаній це може означати інвестиції в інструменти виявлення упереджень і сприяння різноманітності в технічних командах. Для урядів це може включати впровадження правил для забезпечення справедливого використання ШІ. 

    Наслідки упередженості ШІ

    Більш широкі наслідки упередженості ШІ можуть включати:

    • Організації проявляють активність у забезпеченні справедливості та відсутності дискримінації, оскільки вони використовують ШІ для підвищення продуктивності та продуктивності. 
    • Наявність фахівця зі штучного інтелекту в командах розробників для виявлення та пом’якшення етичних ризиків на ранніх стадіях проекту. 
    • Розробляючи продукти штучного інтелекту, чітко враховуйте такі фактори різноманітності, як стать, раса, клас і культура.
    • Залучення представників різних груп, які використовуватимуть продукт штучного інтелекту компанії, щоб протестувати його перед випуском.
    • Різні державні послуги обмежені для певних представників громадськості.
    • Певні представники громадськості не можуть отримати доступ або претендувати на певні можливості роботи.
    • Правоохоронні органи та професіонали несправедливо атакують певних членів суспільства більше, ніж інших. 

    Питання для розгляду

    • Ви оптимістично налаштовані щодо того, що автоматизоване прийняття рішень буде справедливим у майбутньому?
    • Що вас найбільше нервує щодо прийняття рішень у сфері штучного інтелекту?

    Посилання на Insight

    Для цієї інформації використовувалися такі популярні та інституційні посилання: