Por qué y cómo funcionan los videos deepfake -y qué está en riesgo

0
9

Los deepfakes son videos falsos o grabaciones de audio que se ven y suenan como si fueran reales. Mientras que antes solo producían propaganda los estudios de efectos especiales de Hollywood y las agencias de inteligencia como la CIA o JTRIG del GCHQ, hoy cualquier persona puede descargar software deepfake y crear videos falsos convincentes en su tiempo libre.

Hasta ahora, el uso de deepfakes se ha limitado a aficionados poniendo caras de celebridades en cuerpos de estrellas porno, y haciendo que los políticos digan cosas divertidas. Sin embargo, sería igual de fácil crear un deepfake de una alerta de emergencia advirtiendo que un ataque es inminente, o destruir el matrimonio de alguien con un video sexual falso, o interrumpir una elección ajustada publicando un video o una grabación de audio falsa de uno de los candidatos días antes de que comience la votación.

¿Qué tan peligrosos son los deepfakes?
Esto pone a mucha gente nerviosa; tanto así, que Marco Rubio, el senador republicano de Florida y candidato presidencial del 2016, los llamó el equivalente moderno de las armas nucleares. «En los viejos tiempos”, dijo en una audiencia en Washington, «si alguien quería amenazar a Estados Unidos, necesitaba 10 portaaviones, armas nucleares y misiles de largo alcance. Hoy, solo necesita acceso a nuestro sistema de Internet, a nuestro sistema bancario, a nuestra red eléctrica e infraestructura, y cada vez nos acercamos más a que lo único necesario sea la capacidad de producir un video falso muy realista que podría socavar nuestras elecciones, que podría llevar a nuestro país a una tremenda crisis interna y debilitarnos profundamente”.

Hipérbole política sesgada por ambición frustrada, o ¿los deepfakes son realmente una amenaza mayor que las armas nucleares? Sin embargo, no todos están de acuerdo con Rubio.

«¿Tan peligroso como las bombas nucleares? No lo creo”, señala Tim Hwang, director de Ethics and Governance of AI Initiative en el Centro Berkman-Klein y el Laboratorio de Medios del MIT. «Ciertamente, opino que las demostraciones que hemos visto son inquietantes. Me parece que son preocupantes y plantean muchas preguntas, pero no creo que cambien el juego de la manera que mucha gente está sugiriendo”.

Los usuarios comunes pueden descargar FakeApp y comenzar a crear sus propios deepfakes de inmediato. Usar la aplicación no es muy fácil, pero un usuario moderadamente familiarizado con la tecnología no debería tener problemas, como lo demostró Kevin Roose para el New York Times a principios de 2019.

Dicho esto, Hwang sostiene que hay tantas otras formas eficaces de desinformación, que enfocarse en jugar con deepfakes es una estrategia incorrecta. «Creo que incluso en el presente hay muchas formas baratas que no requieren aprendizaje profundo o aprendizaje automático para engañar y moldear la opinión pública”.

Por ejemplo, tomar un video de personas golpeando a alguien en la calle y luego crear una narrativa falsa -alegando, tal vez, que los atacantes son inmigrantes en Estados Unidos- no requiere un algoritmo de aprendizaje automático sofisticado, solo una falsa narrativa creíble y un video que encaja.

Como funcionan los deepfakes
Ver para creer, dice el viejo dicho, pero lo cierto es creer para ver: el ser humano busca información que respalde lo que quiere creer e ignora el resto.

Hackear esa tendencia humana les da a los actores maliciosos mucho poder. Ya vemos esto con la desinformación (las llamadas «fake news«) que crea falsedades deliberadas que luego se difunden bajo el disfraz de la verdad. Para cuando los que verifican los hechos comienzan a protestar, ya es demasiado tarde y #PizzaGate es tendencia.

Los deepfakes explotan esta tendencia humana utilizando redes generativas adversarias (GANs), en las que dos modelos de aprendizaje automático (ML) lo logran. Un modelo de ML se entrena con un conjunto de datos y luego crea falsificaciones de video, mientras que el otro intenta detectar las falsificaciones. El modelo falsificador crea falsificaciones hasta que el otro modelo de ML no pueda detectarlas. Cuanto mayor sea el conjunto de datos de entrenamiento, más fácil será para el falsificador crear un deepfake creíble. Esta es la razón por la que los videos de expresidentes y celebridades de Hollywood se han utilizado con frecuencia en esta primera generación de deepfakes, pues hay un montón de imágenes de video disponibles públicamente para entrenar al falsificador.

Por supuesto que las GANs tienen muchos otros usos además de hacer videos sexuales falsos y poner palabras en la boca de los políticos. Las GANs son un gran avance en lo que se conoce como «aprendizaje no supervisado”, cuando los modelos de aprendizaje automático se enseñan a sí mismos. Esto es muy prometedor para mejorar la capacidad de los vehículos autónomos para reconocer a peatones y ciclistas, y para hacer que los asistentes digitales activados por voz como Alexa y Siri sean más conversacionales. Algunos sostienen que las GANs son el surgimiento de la «imaginación de la IA”.

Ejemplos de deepfake
¿Piensa que los videos de noticias falsas, de la variedad política deepfake, son novedad? Piense otra vez. Por una generación entera luego de la invención del cine, falsificar videos de noticias para dramatizar las noticias reales fue parte del curso.

En un momento en que el cine podía tardar semanas en cruzar un océano, los cineastas dramatizaban terremotos o incendios con pequeños escenarios para hacer que las noticias fueran más realistas. En la década de 1920, el envío de fotografías en blanco y negro a través de cables transoceánicos era la última moda, y los cineastas usaban fotos genuinas para crear sus escenas de destrucción. Eso cambió en la década de 1930, en la que los miembros de la audiencia empezaron a esperar que lo que estuviesen viendo fuera el artículo verdadero.

Recientemente, el debate sobre los deepfakes se reavivó con el lanzamiento de un video en TikTok que parecía mostrar al actor Tom Cruise. De hecho, se utilizó la combinación de un imitador humano y el algoritmo DeepFaceLab de inteligencia artificial de código abierto para producir una serie de videos convincentes.

El experto belga en efectos visuales (VFX), Chris Ume, que creó los videos, dijo que no es algo que la mayoría de la gente pueda reproducir. Sin embargo, el proyecto demuestra que es posible usar una combinación de técnicas de IA, CGI y VFX para crear videos deepfake casi imposibles de detectar para un ojo inexperto.

Cómo detectar deepfakes
Detectar deepfakes es un problema difícil. Los deepfakes de principiantes pueden, por supuesto, ser detectados a simple vista. Otras señales que las máquinas pueden detectar incluyen la falta de parpadeo y sombras que no se ven reales. Las GANs que generan deepfakes están mejorando todo el tiempo, y pronto tendremos que confiar en el análisis forense digital para detectar deepfakes -si es que llegan realmente a detectarlos.

Este es un problema tan complicado que DARPA está gastando mucho dinero para que los investigadores encuentren mejores formas de autenticar videos. Sin embargo, debido a que las GANs pueden entrenarse a sí mismas para aprender cómo evadir este tipo de análisis forense, no está claro que esta sea una batalla que podamos ganar.

«Teóricamente, si se le da a una GAN todas las técnicas que sabemos para detectarlo, podría superar todas esas técnicas”, explica David Gunning, gerente del programa DARPA a cargo del proyecto, al MIT Technology Review. «No sabemos si existe un límite. No está claro”.

Los críticos advierten que, si no podemos detectar videos falsos, pronto nos veremos obligados a desconfiar de todo lo que vemos y escuchamos. El Internet ahora intercede en todos los aspectos de nuestras vidas, y la incapacidad de confiar en lo que vemos podría conducir al «fin de la verdad”. Esto amenaza no solo la confianza en nuestro sistema político, sino, a largo plazo, la creencia compartida de una realidad objetiva. Si no podemos ponernos de acuerdo sobre lo que es real y lo que no lo es, ¿cómo podemos debatir cuestiones de política? se lamentan los alarmistas.

Sin embargo, Hwang cree que esto es una exageración. «Esta es una de mis mayores críticas”, señala. «No nos veo cruzando un umbral místico y luego no sabiendo diferenciar qué es real y qué no”.

Al final del día, la exageración en torno a los deepfakes puede ser la mayor protección que tenemos. Estamos alertas de que los videos se pueden falsificar de esta manera, y eso le quita la efectividad a los deepfakes.

¿Cómo regulamos para prevenir deepfakes?
¿Son legales? Es una pregunta polémica y sin resolver. Hay que considerar la Primera Enmienda, pero también la ley de propiedad intelectual, la ley de privacidad, además de los nuevos estatutos de pornografía que gran cantidad de estados de los EE.UU. han promulgado últimamente.

En muchos casos, plataformas como Gfycat y Pornhub han eliminado activamente videos pornográficos deepfake de sus sitios web, argumentando que dicho contenido viola sus términos de servicio. Los deepfakes de pornografía continúan siendo compartidos en plataformas menos populares.

Sin embargo, cuando se trata de un discurso político que no es de naturaleza sexual abusiva, las líneas se vuelven borrosas. La Primera Enmienda protege el derecho que tiene un político de mentir a la gente. Protege el derecho a publicar información incorrecta, por accidente o intencionalmente. El mercado de ideas está destinado a separar la verdad de la falsedad, no una censura gubernamental o una censura de facto que imponga términos de servicio arbitrarios en una plataforma de redes sociales.

Los reguladores y legisladores continúan lidiando con este problema. Manténgase al tanto.

J.M. Porup CSOonline.com

Artículo anteriorResultados 2020 de Bancaribe ratifican una gestión apegada a las buenas prácticas bancarias
Artículo siguienteIntel presenta la tercera generación de procesadores escalables Xeon, Ice Lake