Falsedad sintética de los medios: Ver ya no es creer

CREDITO DE IMAGEN:
Crédito de la imagen
iStock

Falsedad sintética de los medios: Ver ya no es creer

Falsedad sintética de los medios: Ver ya no es creer

Subtítulo de texto
Los medios sintéticos desdibujan la línea entre la realidad y la IA, remodelando la confianza en la era digital y generando demanda de autenticidad del contenido.
    • Escrito por:
    • Nombre del autor
      Previsión Quantumrun
    • Febrero 22, 2024

    Resumen de información

    Los medios sintéticos, que combinan inteligencia artificial (IA) con vídeo, audio y elementos visuales, son tan realistas que es difícil distinguirlos de los medios reales. Su desarrollo se remonta a décadas atrás, y el aprendizaje profundo (DL) y las redes generativas adversas (GAN) desempeñan un papel clave en su avance. A medida que esta tecnología evoluciona, presenta oportunidades creativas e importantes desafíos en materia de privacidad, ética y desinformación.

    Contexto de falsedad mediática sintética

    Los medios sintéticos representan una combinación innovadora de contenido generado por IA, que abarca video en vivo, elementos visuales y audio dentro de un marco tecnológico avanzado. Esta forma de medio se caracteriza por su realismo excepcional y sus cualidades inmersivas, lo que la hace casi indistinguible de los medios del mundo real. La creación de medios sintéticos se remonta a la década de 1950, y experimentó una evolución significativa a finales de la década de 1980 y principios de la de 1990 a medida que aumentaba el poder computacional. 

    El aprendizaje profundo es la tecnología central que impulsa los medios sintéticos, una rama sofisticada del aprendizaje automático (ML). Particularmente influyentes en este dominio son las GAN, que han revolucionado el campo al aprender de imágenes existentes para producir imágenes completamente nuevas pero inquietantemente auténticas. Las GAN operan utilizando un sistema de red neuronal dual: una red genera imágenes falsas basadas en imágenes reales, mientras que la otra evalúa su autenticidad, ampliando los límites de lo que es posible en la visión por computadora y el procesamiento de imágenes.

    A medida que la IA continúa su rápido avance, las aplicaciones e implicaciones de los medios sintéticos se vuelven cada vez más significativas. Si bien estos avances tecnológicos abren puertas a la innovación en diversos sectores, incluidos los videojuegos, los vehículos autónomos y el reconocimiento facial, al mismo tiempo introducen preocupaciones apremiantes con respecto a la privacidad y la ética. Por lo tanto, el futuro de los medios sintéticos representa un arma de doble filo, que ofrece un enorme potencial para la creatividad y la innovación, al tiempo que nos desafía a abordar sus implicaciones éticas y relacionadas con la privacidad.

    Impacto disruptivo

    Un estudio de 2022 realizado por la organización sin fines de lucro Rand Corporation analiza los cuatro riesgos principales de los medios sintéticos: manipulación de las elecciones a través de videos fabricados de candidatos, exacerbación de las divisiones sociales al amplificar la propaganda y el contenido partidista, erosión de la confianza en las instituciones a través de representaciones falsas de figuras de autoridad, y socavar el periodismo al arrojar dudas sobre la autenticidad de noticias legítimas. Estos deepfakes pueden ser particularmente dañinos en los países en desarrollo donde prevalecen niveles más bajos de educación, democracias frágiles y conflictos interétnicos. La desinformación ya es un problema importante en estas regiones, y los deepfakes podrían intensificar las disputas y la violencia, como se vio en incidentes pasados ​​en países como Myanmar, India y Etiopía. Además, los recursos limitados asignados a la moderación de contenidos fuera de Estados Unidos, especialmente en plataformas como WhatsApp, aumentan el riesgo de que los deepfakes pasen desapercibidos en estas áreas.

    Los deepfakes también plantean amenazas únicas para las mujeres, dada la disparidad de género en el contenido pornográfico. Los medios generados por IA se han utilizado para crear pornografía deepfake no consensuada, lo que ha dado lugar a abusos y explotación. Estas tecnologías también pueden plantear riesgos de seguridad al atacar a agentes de inteligencia, candidatos políticos, periodistas y líderes para avergonzarlos o manipularlos. Ejemplos históricos, como la campaña de desinformación respaldada por Rusia contra la parlamentaria ucraniana Svitlana Zalishchuk, demuestran el potencial de tales ataques.

    La comprensión de la comunidad científica sobre las implicaciones sociales de los deepfakes aún está evolucionando, y los estudios ofrecen resultados mixtos sobre la capacidad de los usuarios para detectar estos videos y su impacto. Algunas investigaciones sugieren que los humanos pueden ser mejores que las máquinas para detectar deepfakes, pero estos videos a menudo se consideran vívidos, persuasivos y creíbles, lo que aumenta la probabilidad de su difusión en las redes sociales. Sin embargo, la influencia de los vídeos deepfake en las creencias y el comportamiento podría ser menor de lo previsto, lo que indica que las preocupaciones sobre su capacidad de persuasión podrían ser algo prematuras. 

    Implicaciones de la falsedad de los medios sintéticos

    Las implicaciones más amplias de la falsedad de los medios sintéticos pueden incluir: 

    • Técnicas mejoradas en autenticación de contenido digital, lo que lleva a métodos más sofisticados para verificar la autenticidad de los medios.
    • Mayor demanda de educación en alfabetización digital en las escuelas, dotando a las generaciones futuras de las habilidades para analizar críticamente los medios.
    • Cambios en los estándares periodísticos, que requieren procesos de verificación más estrictos para el contenido multimedia para mantener la credibilidad.
    • Ampliación de los marcos legales que abordan la manipulación de contenidos digitales, ofreciendo una mejor protección contra la desinformación.
    • Mayores riesgos para la privacidad personal debido al posible uso indebido del reconocimiento facial y los datos personales en la creación de deepfakes.
    • Desarrollo de nuevos sectores de mercado especializados en detección y prevención de deepfake, creando oportunidades laborales y avances tecnológicos.
    • Campañas políticas que adoptan prácticas de monitoreo de medios más estrictas para mitigar el impacto del contenido falso en las elecciones.
    • Cambios en las estrategias de publicidad y marketing, con mayor énfasis en la autenticidad y el contenido verificable para mantener la confianza del consumidor.
    • Un aumento de los impactos psicológicos debido a la difusión de contenido realista pero falso, que podría afectar la salud mental y la percepción pública.
    • Alteraciones en la dinámica de las relaciones internacionales a medida que los deepfakes se convierten en una herramienta en las estrategias geopolíticas, afectando la diplomacia y la confianza global.

    Preguntas a considerar

    • ¿Cómo afectan los medios sintéticos su percepción de los acontecimientos actuales?
    • ¿Cómo podría el desarrollo de la tecnología deepfake influir en el equilibrio entre la libertad de expresión y la necesidad de regulación para prevenir la desinformación y el abuso?

    Referencias de información

    Se hizo referencia a los siguientes enlaces populares e institucionales para esta perspectiva: