Аналітика емоцій: чи можуть машини зрозуміти, що ми відчуваємо?

КРЕДИТ ЗОБРАЖЕННЯ:
Кредит зображення
iStock

Аналітика емоцій: чи можуть машини зрозуміти, що ми відчуваємо?

Аналітика емоцій: чи можуть машини зрозуміти, що ми відчуваємо?

Текст підзаголовка
Технічні компанії розробляють моделі штучного інтелекту для розшифровки настроїв, що ховаються за словами та виразом обличчя.
    • Автор:
    • ім'я автора
      Quantumrun Foresight
    • Жовтень 10, 2023

    Короткий огляд

    Емоційна аналітика використовує штучний інтелект, щоб оцінити людські емоції за мовою, текстом і фізичними ознаками. Технологія в основному зосереджена на обслуговуванні клієнтів і управлінні брендом шляхом адаптації відповідей чат-бота в режимі реального часу. Інше суперечливе застосування стосується підбору персоналу, де мова тіла та голос аналізуються для прийняття рішень про наймання. Незважаючи на свій потенціал, технологія викликала критику через відсутність наукової основи та потенційні проблеми з конфіденційністю. Наслідки включають більш адаптовану взаємодію з клієнтами, а також можливість більшої кількості судових позовів і етичних проблем.

    Контекст аналітики емоцій

    Емоційна аналітика, також відома як аналіз настроїв, дозволяє штучному інтелекту (ШІ) зрозуміти, що відчуває користувач, аналізуючи його мову та структуру речень. Ця функція дозволяє чат-ботам визначати ставлення, думки та емоції споживачів щодо бізнесу, продуктів, послуг чи інших предметів. Основна технологія, яка забезпечує аналітику емоцій, — це розуміння природної мови (NLU).

    NLU означає, коли комп’ютерне програмне забезпечення розуміє введення у формі речень через текст або мову. Завдяки цій можливості комп’ютери можуть розуміти команди без формалізованого синтаксису, який часто характеризує комп’ютерні мови. Крім того, NLU дозволяє машинам спілкуватися з людьми за допомогою природної мови. Ця модель створює ботів, які можуть взаємодіяти з людьми без нагляду. 

    Акустичні вимірювання використовуються в передових рішеннях для аналізу емоцій. Вони спостерігають за швидкістю, з якою хтось говорить, напругою в його голосі та зміною сигналів стресу під час розмови. Основна перевага аналізу емоцій полягає в тому, що йому не потрібні великі дані для обробки та налаштування розмови чат-бота відповідно до реакції користувача порівняно з іншими методами. Інша модель під назвою «Обробка природної мови» (NLP) використовується для вимірювання інтенсивності емоцій, присвоєння числових оцінок ідентифікованим почуттям.

    Руйнівний вплив

    Більшість брендів використовують емоційну аналітику в підтримці та управлінні клієнтами. Боти сканують дописи в соціальних мережах і згадки про бренд в Інтернеті, щоб оцінити поточні настрої щодо його продуктів і послуг. Деякі чат-боти навчені миттєво реагувати на скарги або направляти користувачів до агентів, щоб вони вирішували їхні проблеми. Аналіз емоцій дозволяє чат-ботам взаємодіяти з користувачами більш особисто, адаптуючись у режимі реального часу та приймаючи рішення на основі настрою користувача. 

    Інше використання аналітики емоцій – під час найму персоналу, що викликає суперечки. Програмне забезпечення, яке в основному використовується в США та Південній Кореї, аналізує респондентів за їхньою мовою тіла та рухами обличчя без їх відома. Однією з компаній, яка отримала багато критики щодо своєї технології підбору персоналу на основі ШІ, є американська HireVue. Фірма використовує алгоритми машинного навчання, щоб визначити рухи очей людини, те, що вона одягнена, і деталі голосу для профілювання кандидата.

    У 2020 році Electronic Privacy Information Center (EPIC), дослідницька організація, яка зосереджується на питаннях конфіденційності, подала скаргу до Федеральної торгової комісії проти HireVue, заявивши, що її дії не сприяють рівності та прозорості. Тим не менш, деякі компанії все ще покладаються на цю технологію для своїх потреб у працевлаштуванні. Відповідно до Financial TimesУ 50,000 році програмне забезпечення для підбору персоналу зі штучним інтелектом заощадило компанії Unilever 2019 XNUMX годин роботи. 

    Видання Spiked назвало аналітику емоцій «антиутопічною технологією», яка до 25 року коштуватиме 2023 мільярдів доларів США. Критики наполягають, що за розпізнаванням емоцій не стоїть наука. Технологія нехтує складнощами людської свідомості й натомість покладається на поверхневі сигнали. Зокрема, технологія розпізнавання облич не враховує культурний контекст і багато способів, як люди можуть маскувати свої справжні почуття, вдаючи, що вони щасливі чи схвильовані.

    Наслідки аналітики емоцій

    Більш широкі наслідки аналітики емоцій можуть включати: 

    • Великі компанії використовують програмне забезпечення аналітики емоцій для моніторингу співробітників і швидкого прийняття рішень щодо найму. Однак на це може бути подано більше позовів і скарг.
    • Чат-боти, які пропонують різні відповіді та варіанти на основі їхніх емоцій. Однак це може призвести до неточного визначення настрою клієнтів, що призведе до більшої кількості незадоволених клієнтів.
    • Більше технологічних компаній інвестують у програмне забезпечення для розпізнавання емоцій, яке можна використовувати в громадських місцях, зокрема в роздрібних магазинах.
    • Віртуальні помічники, які можуть рекомендувати фільми, музику та ресторани на основі почуттів своїх користувачів.
    • Групи громадянських прав подають скарги на розробників технології розпізнавання облич за порушення конфіденційності.

    Питання для коментарів

    • Наскільки точними, на вашу думку, можуть бути інструменти аналітики емоцій?
    • Які ще труднощі пов’язані з навчанням машин розуміти людські емоції?

    Посилання на Insight

    Для цієї інформації використовувалися такі популярні та інституційні посилання: