Генеративне адверсаријске мреже (ГАН): доба синтетичких медија

КРЕДИТ ЗА СЛИКУ:
Слика кредит
иСтоцк

Генеративне адверсаријске мреже (ГАН): доба синтетичких медија

Генеративне адверсаријске мреже (ГАН): доба синтетичких медија

Текст поднаслова
Генеративне супарничке мреже су револуционисале машинско учење, али се технологија све више користи за превару.
    • Аутор:
    • ime аутора
      Куантумрун Форесигхт
    • Декабрь 5, 2023

    Сажетак увида

    Генеративне адверсаријске мреже (ГАН), познате по стварању дубоких лажирања, генеришу синтетичке податке који опонашају лица, гласове и манире из стварног живота. Њихова употреба се креће од побољшања Адобе Пхотосхопа до генерисања реалистичних филтера на Снапцхату. Међутим, ГАН-ови представљају етичку забринутост, јер се често користе за креирање обмањујућих лажних видео записа и пропагирање дезинформација. У здравству, постоји забринутост због приватности података о пацијентима у ГАН обуци. Упркос овим проблемима, ГАН-ови имају корисне примене, као што је помоћ у кривичним истрагама. Њихова широка употреба у различитим секторима, укључујући снимање филмова и маркетинг, довела је до позива за строжијим мерама приватности података и владином регулацијом ГАН технологије.

    Контекст генеративних адверсариалних мрежа (ГАН).

    ГАН је врста дубоке неуронске мреже која може да генерише нове податке сличне подацима на којима се обучава. Два главна блока која се такмиче један против другог у стварању визионарских креација називају се генератор и дискриминатор. Генератор је одговоран за креирање нових података, док дискриминатор покушава да направи разлику између генерисаних података и података о обуци. Генератор непрестано покушава да превари дискриминатора тако што ствара информације које изгледају што је могуће реалније. Да би то урадио, генератор треба да научи основну дистрибуцију података, омогућавајући ГАН-овима да креирају нове информације без да их стварно памте.

    Када су ГАН-ове први пут развили 2014. од стране Гоогле истраживача Иана Гудфелоуа и његових саиграча, алгоритам је показао велико обећање за машинско учење. Од тада, ГАН-ови су видели много апликација у стварном свету у различитим индустријама. На пример, Адобе користи ГАН-ове за Пхотосхоп следеће генерације. Гоогле користи моћ ГАН-а и за генерисање текста и за слике. ИБМ ефикасно користи ГАН-ове за повећање података. Снапцхат их користи за ефикасне филтере слика и Диснеи за супер резолуције. 

    Ометајући утицај

    Док је ГАН првобитно креиран да побољша машинско учење, његове апликације су прешле сумњиве територије. На пример, деепфаке видео снимци се стално креирају да опонашају стварне људе и да изгледају као да раде или говоре нешто што нису. На пример, постојао је снимак бившег америчког председника Барака Обаме који назива бившег америчког председника Доналда Трампа погрдним изразом, а извршни директор Фејсбука Марк Закербург хвали се да је у стању да контролише милијарде украдених података. Ништа од овога се није догодило у стварном животу. Поред тога, већина лажних видео снимака циља на славне жене и ставља их у порнографски садржај. ГАН-ови такође могу да креирају измишљене фотографије од нуле. На пример, показало се да је неколико дубоко лажних новинарских налога на ЛинкедИну и Твиттеру генерисано вештачком интелигенцијом. Ови синтетички профили се могу користити за креирање чланака који звуче реалистично и мисаоних лидера које пропагандисти могу користити. 

    У међувремену, у здравственом сектору расте забринутост због података који могу да процуре коришћењем стварне базе података пацијената као података за обуку за алгоритме. Неки истраживачи тврде да мора постојати додатни сигурносни или маскирни слој за заштиту личних података. Међутим, иако је ГАН углавном познат по својој способности да обмане људе, он има позитивне предности. На пример, у мају 2022. холандска полиција је поново направила снимак 13-годишњег дечака који је убијен 2003. године. Користећи реалистичне снимке жртве, полиција се нада да ће охрабрити људе да се сете жртве и изнесу нове информације о хладном случају. У полицији тврде да су већ добили неколико дојава, али да ће морати да изврше проверу како би их потврдили.

    Примене генеративних супарничких мрежа (ГАН)

    Неке примене генеративних супарничких мрежа (ГАН) могу укључивати: 

    • Филмска индустрија ствара дубоки лажни садржај за постављање синтетичких глумаца и поновно снимање сцена у постпродуцираним филмовима. Ова стратегија може довести до дугорочне уштеде трошкова јер неће морати да плаћају глумцима и екипи додатну надокнаду.
    • Све већа употреба лажних текстова и видео записа за промовисање идеологија и пропаганде широм различитог политичког спектра.
    • Компаније које користе синтетичке видео снимке за креирање разрађених брендинг и маркетиншких кампања без ангажовања стварних људи осим програмера.
    • Групе које лобирају за повећану заштиту приватности података за здравствену заштиту и друге личне податке. Ово одбијање може да изврши притисак на компаније да развију податке о обуци који нису засновани на стварним базама података. Међутим, резултати можда неће бити тако тачни.
    • Владе које регулишу и надгледају фирме које производе ГАН технологију како би осигурале да се технологија не користи за дезинформације и преваре.

    Питања за коментарисање

    • Да ли сте искусили коришћење ГАН технологије? Какво је било искуство?
    • Како компаније и владе могу осигурати да се ГАН користи етички?