Аналітыка эмоцый: ці могуць машыны зразумець, што мы адчуваем?

КРЭДЫТ ВЫЯВЫ:
Крэдыт малюнка
Istock

Аналітыка эмоцый: ці могуць машыны зразумець, што мы адчуваем?

Аналітыка эмоцый: ці могуць машыны зразумець, што мы адчуваем?

Тэкст падзагалоўка
Тэхналагічныя кампаніі распрацоўваюць мадэлі штучнага інтэлекту для расшыфроўкі пачуццяў, якія стаяць за словамі і выразамі твару.
    • аўтар:
    • імя аўтара
      Quantumrun Foresight
    • Кастрычнік 10, 2023

    Кароткі агляд

    Аналітыка эмоцый выкарыстоўвае штучны інтэлект для вымярэння чалавечых эмоцый па маўленню, тэксце і фізічных сігналах. Тэхналогія ў першую чаргу сканцэнтравана на абслугоўванні кліентаў і кіраванні брэндам шляхам адаптацыі адказаў чат-бота ў рэжыме рэальнага часу. Яшчэ адно супярэчлівае прымяненне - пры найме, дзе мова цела і голас аналізуюцца для прыняцця рашэнняў аб прыёме на працу. Нягледзячы на ​​​​свой патэнцыял, тэхналогія атрымала крытыку за адсутнасць навуковай асновы і магчымыя праблемы з прыватнасцю. Наступствы ўключаюць у сябе больш індывідуальнае ўзаемадзеянне з кліентамі, а таксама магчымасць большай колькасці судовых іскаў і этычных праблем.

    Кантэкст аналітыкі эмоцый

    Аналітыка эмоцый, таксама вядомая як аналіз пачуццяў, дазваляе штучнаму інтэлекту (AI) зразумець, што адчувае карыстальнік, аналізуючы яго маўленне і структуру прапаноў. Гэтая функцыя дазваляе чат-ботам вызначаць адносіны, меркаванні і эмоцыі спажыўцоў да прадпрыемстваў, прадуктаў, паслуг або іншых прадметаў. Асноўная тэхналогія, якая забяспечвае аналітыку эмоцый, - гэта разуменне натуральнай мовы (NLU).

    NLU адносіцца да таго, калі камп'ютэрнае праграмнае забеспячэнне ўспрымае ўвод у выглядзе прапаноў праз тэкст або маўленне. З гэтай магчымасцю кампутары могуць разумець каманды без фармалізаванага сінтаксісу, які часта характарызуе кампутарныя мовы. Таксама NLU дазваляе машынам звязвацца з людзьмі з дапамогай натуральнай мовы. Гэтая мадэль стварае ботаў, якія могуць узаемадзейнічаць з людзьмі без нагляду. 

    Акустычныя вымярэнні выкарыстоўваюцца ў перадавых рашэннях для аналізу эмоцый. Яны назіраюць за хуткасцю, з якой хтосьці гаворыць, напружанасцю ў яго голасе і зменамі сігналаў стрэсу падчас размовы. Асноўная перавага аналізу эмоцый заключаецца ў тым, што яму не патрэбныя шырокія дадзеныя для апрацоўкі і наладжвання размовы чат-бота для рэакцыі карыстальніка ў параўнанні з іншымі метадамі. Іншая мадэль пад назвай Апрацоўка натуральнай мовы (НЛП) выкарыстоўваецца для вымярэння інтэнсіўнасці эмоцый, прысваення лікавых балаў выяўленым пачуццям.

    Разбуральнае ўздзеянне

    Большасць брэндаў выкарыстоўваюць эмацыйную аналітыку ў падтрымцы і кіраванні кліентамі. Боты скануюць паведамленні ў сацыяльных сетках і згадкі брэнда ў інтэрнэце, каб ацаніць пастаяннае стаўленне да яго прадуктаў і паслуг. Некаторыя чат-боты навучаны неадкладна рэагаваць на скаргі або накіроўваць карыстальнікаў да агентаў, якія вырашаюць іх праблемы. Аналіз эмоцый дазваляе чат-ботам больш асабіста ўзаемадзейнічаць з карыстальнікамі, адаптуючыся ў рэжыме рэальнага часу і прымаючы рашэнні ў залежнасці ад настрою карыстальніка. 

    Яшчэ адно выкарыстанне эмацыйнай аналітыкі - пры найме, што выклікае спрэчкі. У асноўным выкарыстоўваецца ў ЗША і Паўднёвай Карэі, праграмнае забеспячэнне аналізуе апытаных па мове іх цела і міміцы без іх ведама. Адной з кампаній, якая атрымала шмат крытыкі ў дачыненні да сваёй тэхналогіі найму на аснове AI, з'яўляецца амерыканская HireVue. Фірма выкарыстоўвае алгарытмы машыннага навучання, каб вызначыць рухі вачэй чалавека, тое, што ён апрануты, і галасавыя дэталі для профілю кандыдата.

    У 2020 годзе Electronic Privacy Information Center (EPIC), даследчая арганізацыя, якая займаецца праблемамі прыватнасці, падала скаргу ў Федэральную камісію па гандлі на HireVue, заявіўшы, што яе дзейнасць не спрыяе роўнасці і празрыстасці. Тым не менш, некаторыя кампаніі па-ранейшаму разлічваюць на гэтую тэхналогію для сваіх патрэбаў па найму. У адпаведнасці з Financial Times, праграмнае забеспячэнне для найму AI зэканоміла Unilever 50,000 2019 гадзін працы па найму ў XNUMX годзе. 

    Навінавае выданне Spiked назвала аналітыку эмоцый "антыўтапічнай тэхналогіяй", якая да 25 года будзе каштаваць 2023 мільярдаў долараў. Крытыкі настойваюць на тым, што за распазнаваннем эмоцый не стаіць навука. Тэхналогія не ўлічвае складанасці чалавечай свядомасці і замест гэтага абапіраецца на павярхоўныя сігналы. У прыватнасці, тэхналогія распазнання твараў не ўлічвае культурны кантэкст і мноства спосабаў, якімі людзі могуць маскіраваць свае сапраўдныя пачуцці, прыкідваючыся шчаслівымі або ўсхваляванымі.

    Наступствы эмацыйнай аналітыкі

    Больш шырокія наступствы аналітыкі эмоцый могуць уключаць: 

    • Буйныя кампаніі выкарыстоўваюць праграмнае забеспячэнне аналітыкі эмоцый для маніторынгу супрацоўнікаў і хуткага прыняцця рашэнняў аб прыёме на працу. Тым не менш, гэта можа быць сустрэта больш судовых працэсаў і скаргаў.
    • Чат-боты, якія прапануюць розныя адказы і варыянты, заснаваныя на іх адчуваннях. Аднак гэта можа прывесці да недакладнай ідэнтыфікацыі настрою кліента, што прывядзе да большай колькасці незадаволеных кліентаў.
    • Больш тэхналагічных кампаній інвестуюць у праграмнае забеспячэнне для распазнавання эмоцый, якое можна выкарыстоўваць у грамадскіх месцах, у тым ліку ў рознічных крамах.
    • Віртуальныя памочнікі, якія могуць рэкамендаваць фільмы, музыку і рэстараны на аснове пачуццяў сваіх карыстальнікаў.
    • Групы па абароне грамадзянскіх правоў падаюць скаргі на распрацоўшчыкаў тэхналогіі распазнавання твараў за парушэнне прыватнасці.

    Пытанні для каментавання

    • Як вы лічыце, наколькі дакладнымі могуць быць інструменты аналітыкі эмоцый?
    • Якія яшчэ праблемы навучыць машыны разумець чалавечыя эмоцыі?

    Спасылкі Insight

    Наступныя папулярныя і інстытуцыйныя спасылкі былі выкарыстаны для гэтай інфармацыі: