Redes xerativas adversarias (GAN): A era dos medios sintéticos

CRÉDITO DA IMAXE:
Crédito da imaxe
iStock

Redes xerativas adversarias (GAN): A era dos medios sintéticos

Redes xerativas adversarias (GAN): A era dos medios sintéticos

Texto do subtítulo
As redes adversarias xerativas revolucionaron a aprendizaxe automática, pero a tecnoloxía utilízase cada vez máis para enganos.
    • autor:
    • nome do autor
      Previsión de Quantumrun
    • Decembro 5, 2023

    Resumo de insight

    As redes xenerativas adversarias (GAN), coñecidas por crear deepfakes, xeran datos sintéticos que imitan caras, voces e modos da vida real. O seu uso abarca desde mellorar Adobe Photoshop ata xerar filtros realistas en Snapchat. Non obstante, as GAN suscitan problemas éticos, xa que adoitan usarse para crear vídeos deepfake enganosos e propagar información errónea. Na asistencia sanitaria, hai ansiedade pola privacidade dos datos dos pacientes na formación GAN. A pesar destes problemas, os GAN teñen aplicacións beneficiosas, como axudar ás investigacións criminais. O seu uso xeneralizado en varios sectores, incluíndo cine e mercadotecnia, levou a pedir medidas de privacidade de datos máis estritas e unha regulación gobernamental da tecnoloxía GAN.

    Contexto das redes xerativas adversarias (GAN).

    GAN é un tipo de rede neuronal profunda que pode xerar novos datos similares aos datos nos que se adestra. Os dous bloques principais que compiten entre si para producir creacións visionarias chámanse xerador e discriminador. O xerador encárgase de crear novos datos, mentres que o discriminador tenta diferenciar entre os datos xerados e os de adestramento. O xerador está constantemente tentando enganar ao discriminador creando información que pareza o máis real posible. Para iso, o xerador necesita aprender a distribución subxacente dos datos, permitindo aos GAN crear nova información sen memorizala.

    Cando os GAN foron desenvolvidos por primeira vez en 2014 polo científico de investigación de Google Ian Goodfellow e os seus compañeiros de equipo, o algoritmo mostrou unha gran promesa para a aprendizaxe automática. Desde entón, os GAN viron moitas aplicacións no mundo real en diferentes industrias. Por exemplo, Adobe fai uso de GAN para Photoshop de próxima xeración. Google utiliza o poder das GAN para a xeración de texto e imaxes. IBM usa eficazmente GAN para aumentar os datos. Snapchat utilízaos para filtros de imaxe eficientes e Disney para resolucións super. 

    Impacto perturbador

    Aínda que GAN creouse inicialmente para mellorar a aprendizaxe automática, as súas aplicacións atravesaron territorios cuestionables. Por exemplo, os vídeos deepfake créanse constantemente para imitar a persoas reais e facer que pareza que están facendo ou dicindo algo que non fixeron. Por exemplo, houbo un vídeo no que o expresidente dos Estados Unidos Barack Obama chamaba ao seu compañeiro Donald Trump un término despectivo e o director xeral de Facebook, Mark Zuckerburg, presumía de poder controlar miles de millóns de datos roubados. Ningún destes aconteceu na vida real. Ademais, a maioría dos vídeos deepfake están dirixidos a mulleres famosas e colócanas en contido pornográfico. Os GAN tamén poden crear fotos ficticias desde cero. Por exemplo, varias contas de xornalistas deepfake en LinkedIn e Twitter resultaron ser xeradas por intelixencia artificial. Estes perfís sintéticos pódense usar para crear artigos de son realista e pezas de liderado de pensamento que os propagandistas poden usar. 

    Mentres tanto, no sector da saúde, hai crecentes preocupacións sobre os datos que se poden filtrar mediante o uso dunha base de datos de pacientes real como datos de adestramento para os algoritmos. Algúns investigadores argumentan que debe haber unha capa adicional de seguridade ou de enmascaramento para protexer a información persoal. Non obstante, aínda que a GAN é coñecida principalmente pola súa capacidade para enganar á xente, ten beneficios positivos. Por exemplo, en maio de 2022, a policía dos Países Baixos recreou un vídeo dun neno de 13 anos que foi asasinado en 2003. Ao utilizar imaxes realistas da vítima, a policía espera animar á xente a lembrar a vítima e presentar nova información sobre o caso frío. A policía asegura que xa recibira varios consellos pero terá que realizar comprobacións de antecedentes para verificalos.

    Aplicacións de redes xerativas adversarias (GAN)

    Algunhas aplicacións das redes xerativas adversarias (GAN) poden incluír: 

    • A industria cinematográfica crea contido deepfake para colocar actores sintéticos e volver a filmar escenas en películas posproducidas. Esta estratexia pode traducirse nun aforro de custos a longo prazo xa que non terán que pagar unha compensación adicional aos actores e á tripulación.
    • O uso cada vez maior de textos e vídeos deepfake para promover ideoloxías e propaganda a través dos diferentes espectros políticos.
    • Empresas que utilizan vídeos sintéticos para crear elaboradas campañas de marca e mercadotecnia sen contratar persoas reais ademais dos programadores.
    • Grupos que presionan para aumentar a protección da privacidade dos datos para a asistencia sanitaria e outra información persoal. Este retroceso pode presionar ás empresas para que desenvolvan datos de formación que non se baseen en bases de datos reais. Non obstante, os resultados poden non ser tan precisos.
    • Os gobernos que regulan e supervisan as empresas que producen tecnoloxía GAN para garantir que a tecnoloxía non se utilice para desinformación e fraude.

    Preguntas para comentar

    • Xa experimentaches o uso da tecnoloxía GAN? Como foi a experiencia?
    • Como poden as empresas e os gobernos garantir que a GAN se use de forma ética?

    Referencias de insight

    As seguintes ligazóns populares e institucionais foron referenciadas para esta visión: