Аналитика емоција: Да ли машине могу да разумеју како се осећамо?

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Аналитика емоција: Да ли машине могу да разумеју како се осећамо?

Аналитика емоција: Да ли машине могу да разумеју како се осећамо?

Текст поднаслова
Технолошке компаније развијају моделе вештачке интелигенције за декодирање осећања иза речи и израза лица.
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • Октобар КСНУМКС, КСНУМКС

    Сажетак увида

    Аналитика емоција користи вештачку интелигенцију за мерење људских емоција из говора, текста и физичких знакова. Технологија се првенствено фокусира на корисничку подршку и управљање брендом прилагођавањем одговора цхатбот-а у реалном времену. Још једна контроверзна апликација је у запошљавању, где се анализирају говор тела и глас како би се донеле одлуке о запошљавању. Упркос свом потенцијалу, технологија је изазвала критике због недостатка научне основе и потенцијалних питања приватности. Импликације укључују прилагођеније интеракције са купцима, али и могућност већег броја тужби и етичких питања.

    Контекст анализе емоција

    Аналитика емоција, позната и као анализа сентимента, омогућава вештачкој интелигенцији (АИ) да разуме како се корисник осећа анализом његовог говора и структуре реченице. Ова функција омогућава чет-ботовима да одреде ставове, мишљења и емоције потрошача према предузећима, производима, услугама или другим темама. Главна технологија која покреће анализу емоција је разумевање природног језика (НЛУ).

    НЛУ се односи на то када рачунарски софтвер разуме унос у облику реченица путем текста или говора. Са овом способношћу, рачунари могу да разумеју команде без формализоване синтаксе која често карактерише рачунарске језике. Такође, НЛУ омогућава машинама да комуницирају са људима користећи природни језик. Овај модел ствара ботове који могу да комуницирају са људима без надзора. 

    Акустична мерења се користе у напредним решењима за анализу емоција. Они посматрају брзину којом неко говори, напетост у њиховом гласу и промене у сигналима стреса током разговора. Главна предност анализе емоција је у томе што јој нису потребни опсежни подаци за обраду и прилагођавање разговора са четботом за реакције корисника у поређењу са другим методама. Други модел под називом Обрада природног језика (НЛП) се користи за мерење интензитета емоција, додељивањем нумеричких оцена за идентификована осећања.

    Ометајући утицај

    Већина брендова користи емоционалну аналитику у подршци и управљању корисницима. Ботови скенирају постове на друштвеним мрежама и помињања бренда на мрежи да би проценили тренутно расположење према његовим производима и услугама. Неки цхат ботови су обучени да одмах реагују на притужбе или усмеравају кориснике на људске агенте да реше њихове проблеме. Анализа емоција омогућава чет-ботовима да лично комуницирају са корисницима прилагођавајући се у реалном времену и доносећи одлуке на основу расположења корисника. 

    Друга употреба емоционалне аналитике је у запошљавању, што је контроверзно. Примарно запослен у САД и Јужној Кореји, софтвер анализира испитанике кроз говор тела и покрете лица без њиховог знања. Једна компанија која је добила много критика у вези са својом технологијом регрутације вођеном вештачком интелигенцијом је ХиреВуе из САД. Фирма користи алгоритме за машинско учење како би открила покрете очију особе, шта носи и детаље о гласу како би профилисала кандидата.

    2020. године, Елецтрониц Приваци Информатион Центер (ЕПИЦ), истраживачка организација која се фокусира на питања приватности, поднела је жалбу Федералној комисији за трговину против ХиреВуе-а, наводећи да њене праксе не промовишу једнакост и транспарентност. Без обзира на то, неколико компанија се и даље ослања на технологију за своје потребе запошљавања. Према Финанциал Тимес, софтвер за запошљавање са вештачком интелигенцијом уштедео је Унилеверу 50,000 сати ангажовања у 2019. 

    Новинска публикација Спикед назвала је емоционалну аналитику "дистопијском технологијом" која ће вредети 25 милијарди долара до 2023. Критичари инсистирају да не постоји наука која стоји иза препознавања емоција. Технологија занемарује сложеност људске свести и уместо тога се ослања на површне сигнале. Посебно, технологија препознавања лица не узима у обзир културни контекст и многе начине на које људи могу да прикрију своја права осећања претварајући се да су срећни или узбуђени.

    Импликације емоционалне аналитике

    Шире импликације аналитике емоција могу укључивати: 

    • Велике компаније које користе софтвер за анализу емоција за праћење запослених и брзо доношење одлука о запошљавању. Међутим, ово би могло бити испуњено више тужби и жалби.
    • Чет-ботови који нуде различите одговоре и опције на основу њихових перципираних емоција. Међутим, ово може довести до нетачне идентификације расположења купаца, што доводи до више незадовољних клијената.
    • Више технолошких компанија улаже у софтвер за препознавање емоција који се може користити у јавним просторима, укључујући малопродајне продавнице.
    • Виртуелни асистенти који могу да препоруче филмове, музику и ресторане на основу осећања својих корисника.
    • Групе за грађанска права подносе жалбе против програмера технологије за препознавање лица због кршења приватности.

    Питања за коментарисање

    • Шта мислите, колико тачни могу бити алати за анализу емоција?
    • Који су други изазови учења машина да разумеју људске емоције?

    Референце за увид

    Следеће популарне и институционалне везе су референциране за овај увид: