Sesenta autoridades de protección de datos de diversos países han suscrito una declaración conjunta para abordar los riesgos de los sistemas de IA capaces de crear imágenes y vídeos de personas reales sin su autorización.
El documento manifiesta la preocupación de los organismos reguladores ante la proliferación de contenidos íntimos, difamatorios o perjudiciales, los cuales afectan de manera desproporcionada a menores de edad y otros grupos en situación de vulnerabilidad. Esta iniciativa fue coordinada por el grupo de trabajo sobre cooperación internacional para la aplicación de normas de la Global Privacy Assembly.
La declaración establece cuatro pilares fundamentales que deben orientar el desarrollo y la implementación de estas tecnologías.
En primer lugar, se exige la adopción de medidas que impidan el uso indebido de información personal y la creación de imágenes íntimas no consensuadas.
En segundo término, se requiere transparencia sobre el funcionamiento de los sistemas y claridad sobre las consecuencias de su uso inapropiado.
Como tercer punto, las autoridades demandan herramientas accesibles para solicitar la eliminación de contenidos lesivi. Finalmente, se insta a una gestión específica de los riesgos relacionados con la infancia.
Bajo esta premisa, los reguladores han solicitado a las empresas desarrolladoras que colaboren de forma proactiva para asegurar que el avance técnico no comprometa la dignidad, la seguridad ni los derechos fundamentales de los ciudadanos. La petición enfatiza que las salvaguardias deben integrarse desde la fase de diseño para evitar que la innovación tecnológica ocurra a expensas de la integridad de las personas.
Limitaciones en las medidas contra los deepfakes en redes sociales
En paralelo a estas demandas regulatorias, la plataforma social X ha implementado una nueva función en su aplicación para sistemas operativos iOS con el fin de restringir la manipolazione de fotografías a través de su chatbot Grok. Esta opción permite a los usuarios activar un bloqueo para que terceras personas no puedan modificar sus contenidos originales. La medida surge tras la presión de diversos organismos internacionales debido a casos de abuso registrados previamente, donde se utilizaron imágenes reales para generar contenidos de desnudez no consensuada.
No obstante, análisis técnicos realizados por portales especializados indican que la efectividad de esta herramienta es restringida. El bloqueo actual solo actúa cuando la modificación se solicita mediante una mención directa al chatbot en una conversación pública. Los usuarios con suscripciones de pago aún pueden emplear el bot para editar imágenes a través de mensajes privados o iniciando nuevos hilos de conversación, lo que deja márgenes para eludir la restricción.
Además, se ha observado que la opción no se encuentra disponible en la versión de escritorio de la plataforma ni tiene carácter retroactivo sobre publicaciones pasadas. El hecho de que la configuración esté ubicada en los menús de edición fotográfica, en lugar de integrarse en los ajustes generales de privacidad, dificulta su localización para el usuario promedio. Estos desafíos técnicos subrayan la dificultad de controlar el uso de la IA generativa en entornos digitales masivos, donde la rapidez de las actualizaciones suele superar la capacidad de supervisión de los mecanismos de seguridad actuales.
Fuente: Web. Editado por CDOL









































