Los deepfakes, o representaciones sintéticas y ficticias de alta fidelidad de personas y acontecimientos que aprovechan la inteligencia artificial (IA) y el aprendizaje automático (ML), se han convertido en una herramienta habitual de desinformación en los últimos cinco años. Pero según Eric Horvitz, director científico de Microsoft, nuevas amenazas de deepfake acechan en el horizonte.
Un nuevo trabajo de investigación de Horvitz afirma que los deepfakes interactivos y compositivos son dos clases de amenazas cada vez más frecuentes. En un hilo de Twitter, el científico investigador de MosaicML Davis Blaloch describió las deepfakes interactivas como «la ilusión de hablar con una persona real. Imagina a un estafador llamando a tu abuela que se ve y suena exactamente como tú». Los deepfakes de composición, continuó, van más allá con un mal actor que crea muchos deepfakes para compilar una «historia sintética».
«Piensa en inventar un ataque terrorista que nunca ocurrió, en inventar un escándalo ficticio o en reunir «pruebas» de una teoría conspirativa interesada. Esa historia sintética podría complementarse con acciones del mundo real (por ejemplo, incendiar un edificio)», tuiteó Blaloch.
La IA generativa está en un punto de inflexión
En el documento, Horvitz dijo que las crecientes capacidades de los métodos de IA discriminativa y generativa están alcanzando un punto de inflexión. «Los avances están proporcionando herramientas sin precedentes que pueden ser utilizadas por actores estatales y no estatales para crear y distribuir desinformación persuasiva», escribió, y agregó que los deepfakes serán más difíciles de diferenciar de la realidad.
El reto, explicó, surge de la metodología de las redes generativas adversariales (GAN), una «técnica iterativa en la que el aprendizaje automático y la inferencia empleados para generar contenido sintético se enfrentan a sistemas que intentan discriminar las ficciones generadas de los hechos». Con el tiempo, continuó, el generador aprende a engañar al detector. «Con este proceso en la base de los deepfakes, ni las técnicas de reconocimiento de patrones ni los humanos serán capaces de reconocer de forma fiable los deepfakes», escribió.
En mayo, Horvitz testificó ante el Subcomité de Ciberseguridad del Comité de Servicios Armados del Senado de EE.UU., donde destacó que las organizaciones se enfrentarán a nuevos retos a medida que los ataques de ciberseguridad sean más sofisticados, incluyendo el uso de medios sintéticos impulsados por IA y deepfakes.
Hasta la fecha, escribió en el nuevo documento, los deepfakes se han creado y compartido como creaciones únicas e independientes. Ahora, sin embargo, «podemos esperar ver el aumento de nuevas formas de deepfakes persuasivos que van más allá de las producciones fijas y únicas», dijo.
Defenderse de los deepfakes
Horvitz cita una serie de formas en que los gobiernos, organizaciones, investigadores y empresas pueden prepararse y defenderse contra el previsible aumento de los deepfakes interactivos y compositivos.
El aumento de los deepfakes, cada vez más sofisticados, «elevará el listón de las expectativas y los requisitos» del periodismo y la información, así como la necesidad de fomentar la alfabetización mediática y concienciar sobre estas nuevas tendencias.
Además, podrían ser necesarios nuevos protocolos de autenticidad para confirmar la identidad, añadió, incluso nuevas prácticas de identificación multifactorial para la admisión en reuniones en línea. También puede ser necesario establecer nuevas normas para demostrar la procedencia de los contenidos, incluyendo nuevos métodos de marcas de agua y huellas dactilares; nuevas regulaciones y autorregulación; esfuerzos de equipo rojo y supervisión continua.
La vigilancia del deepfake es esencial
«Es importante estar alerta» contra los deepfakes interactivos y de composición, dijo Horvitz en un tuit durante el fin de semana.
Otros expertos también compartieron el documento en Twitter y opinaron al respecto. «La conciencia pública del riesgo de la IA es fundamental para adelantarse a los daños previsibles», escribió Margaret Mitchell, investigadora y jefa de ética de Hugging Face. «Pienso mucho en las estafas y la desinformación».
Horvitz se explayó en su conclusión: «A medida que avanzamos en la frontera de las posibilidades tecnológicas, debemos seguir previendo los posibles abusos de las tecnologías que creamos y trabajar para desarrollar modelos de amenazas, controles y salvaguardas, y comprometernos en múltiples sectores con las crecientes preocupaciones, los usos aceptables, las mejores prácticas, las mitigaciones y las regulaciones.»
Fuente WEB | Editado por CambioDigital OnLine