Analiza emocji: czy maszyny mogą zrozumieć, jak się czujemy?

KREDYT WZROKU:
Image credit
iStock

Analiza emocji: czy maszyny mogą zrozumieć, jak się czujemy?

Analiza emocji: czy maszyny mogą zrozumieć, jak się czujemy?

Tekst podtytułu
Firmy technologiczne opracowują modele sztucznej inteligencji, aby rozszyfrować uczucia kryjące się za słowami i mimiką.
    • Autor:
    • nazwisko autora
      Foresight Quantumrun
    • 10 października 2023 r.

    Podsumowanie spostrzeżeń

    Analityka emocji wykorzystuje sztuczną inteligencję do oceny ludzkich emocji na podstawie mowy, tekstu i wskazówek fizycznych. Technologia koncentruje się przede wszystkim na obsłudze klienta i zarządzaniu marką, dostosowując odpowiedzi chatbota w czasie rzeczywistym. Innym kontrowersyjnym zastosowaniem jest rekrutacja, gdzie przy podejmowaniu decyzji o zatrudnieniu analizuje się mowę ciała i głos. Pomimo swojego potencjału technologia ta spotkała się z krytyką ze względu na brak podstaw naukowych i potencjalne problemy z prywatnością. Konsekwencje obejmują bardziej dostosowane interakcje z klientami, ale także możliwość większej liczby procesów sądowych i problemów etycznych.

    Kontekst analizy emocji

    Analityka emocji, znana również jako analiza nastrojów, pozwala sztucznej inteligencji (AI) zrozumieć, jak czuje się użytkownik, analizując jego mowę i strukturę zdań. Ta funkcja umożliwia chatbotom określanie postaw, opinii i emocji konsumentów wobec firm, produktów, usług lub innych tematów. Główną technologią wspierającą analizę emocji jest rozumienie języka naturalnego (NLU).

    NLU odnosi się do sytuacji, w której oprogramowanie komputerowe odczytuje dane wejściowe w formie zdań za pomocą tekstu lub mowy. Dzięki tej możliwości komputery mogą rozumieć polecenia bez sformalizowanej składni, która często charakteryzuje języki komputerowe. Ponadto NLU pozwala maszynom komunikować się z ludźmi za pomocą języka naturalnego. Model ten tworzy boty, które mogą wchodzić w interakcje z ludźmi bez nadzoru. 

    Pomiary akustyczne wykorzystywane są w zaawansowanych rozwiązaniach do analizy emocji. Obserwują tempo, w jakim ktoś mówi, napięcie w jego głosie i zmiany sygnałów stresu podczas rozmowy. Główną zaletą analizy emocji jest to, że nie wymaga ona obszernych danych do przetworzenia i dostosowania rozmowy chatbota pod kątem reakcji użytkownika w porównaniu z innymi metodami. Do pomiaru intensywności emocji wykorzystuje się inny model, zwany przetwarzaniem języka naturalnego (NLP), przypisując zidentyfikowanym uczuciom ocenę liczbową.

    Zakłócający wpływ

    Większość marek wykorzystuje analizę emocji w obsłudze klienta i zarządzaniu. Boty skanują posty w mediach społecznościowych i wzmianki o marce w Internecie, aby ocenić bieżący sentyment do jej produktów i usług. Niektóre chatboty są przeszkolone, aby natychmiast reagować na skargi lub kierować użytkowników do agentów ludzkich w celu rozwiązania ich problemów. Analiza emocji umożliwia chatbotom bardziej osobistą interakcję z użytkownikami, dostosowując się do nich w czasie rzeczywistym i podejmując decyzje w oparciu o nastrój użytkownika. 

    Innym zastosowaniem analizy emocji jest rekrutacja, co jest kontrowersyjne. Oprogramowanie, stosowane głównie w USA i Korei Południowej, analizuje rozmówców na podstawie ich mowy ciała i ruchów twarzy bez ich wiedzy. Jedną z firm, która spotkała się z dużą krytyką w związku z technologią rekrutacji opartą na sztucznej inteligencji, jest HireVue z siedzibą w USA. Firma korzysta z algorytmów uczenia maszynowego, aby poznać ruchy oczu danej osoby, jej ubiór i szczegóły głosu, aby sprofilować kandydata.

    W 2020 r. Electronic Privacy Information Center (EPIC), organizacja badawcza skupiająca się na kwestiach prywatności, złożyła skargę do Federalnej Komisji Handlu przeciwko HireVue, stwierdzając, że jej praktyki nie promują równości i przejrzystości. Niemniej jednak kilka firm w dalszym ciągu polega na tej technologii w swoich potrzebach rekrutacyjnych. Według Financial Times, oprogramowanie rekrutacyjne AI pozwoliło firmie Unilever zaoszczędzić 50,000 2019 godzin pracy w XNUMX r. 

    W publikacji informacyjnej Spiked nazwano analizę emocji „technologią dystopijną”, która do 25 r. będzie warta 2023 miliardów dolarów. Krytycy twierdzą, że za rozpoznawaniem emocji nie kryje się żadna nauka. Technologia ta lekceważy złożoność ludzkiej świadomości i zamiast tego opiera się na powierzchownych sygnałach. W szczególności technologia rozpoznawania twarzy nie bierze pod uwagę kontekstów kulturowych i wielu sposobów, w jakie ludzie mogą maskować swoje prawdziwe uczucia, udając, że są szczęśliwi lub podekscytowani.

    Implikacje analizy emocji

    Szersze implikacje analizy emocji mogą obejmować: 

    • Duże firmy korzystające z oprogramowania do analizy emocji do monitorowania pracowników i przyspieszania decyzji o zatrudnieniu. Może to jednak spotkać się z większą liczbą pozwów i skarg.
    • Chatboty oferujące różne reakcje i opcje w zależności od postrzeganych emocji. Może to jednak skutkować niedokładną identyfikacją nastrojów klientów, co może prowadzić do ich większego niezadowolenia.
    • Więcej firm technologicznych inwestujących w oprogramowanie do rozpoznawania emocji, które można wykorzystać w przestrzeni publicznej, w tym w sklepach detalicznych.
    • Wirtualni asystenci, którzy mogą polecać filmy, muzykę i restauracje na podstawie odczuć użytkowników.
    • Organizacje praw obywatelskich składające skargi na twórców technologii rozpoznawania twarzy w związku z naruszeniami prywatności.

    Pytania do skomentowania

    • Jak dokładne, Twoim zdaniem, mogą być narzędzia do analizy emocji?
    • Jakie są inne wyzwania związane z uczeniem maszyn rozumienia ludzkich emocji?

    Referencje informacyjne

    W celu uzyskania tego wglądu odniesiono się do następujących popularnych i instytucjonalnych powiązań: