Legisladores de la UE piden la prohibición total de la vigilancia biométrica

0
38

Algunos eurodiputados y una coalición de 76 ONGs han acordado no apoyar la próxima Ley de Inteligencia Artificial si no incluye la prohibición del uso de la vigilancia biométrica y aduciendo la amenaza que la tecnología de vigilancia biométrica supone para la democracia y los riesgos de discriminación hacia determinados grupos.

La tecnología biométrica, como el escáner de reconocimiento facial, ya es utilizada por las fuerzas del orden, especialmente en China y Estados Unidos. A principios de este año, el Ministerio de Justicia reveló sus planes para permitir el uso de la tecnología de reconocimiento facial por parte de la An Garda Síochána en virtud de un reglamento previsto.

En el acto celebrado en el Parlamento el 8 de noviembre, los oradores señalaron las repercusiones negativas que puede tener la vigilancia biométrica y pidieron que se prohíba totalmente en la próxima Ley de Inteligencia Artificial.

Esta ley pretende abordar los riesgos asociados a usos específicos de la IA mediante un conjunto de normas complementarias y proporcionadas. Algunos elementos de la propuesta de ley han sido criticados por los organismos de control europeos por no ir lo suficientemente lejos con ciertas tecnologías, como el reconocimiento facial en vivo en lugares públicos.

En octubre, una reunión del Parlamento Europeo sobre el proyecto de ley de IA se centró en gran medida en el ámbito de aplicación de la normativa y sus restricciones hacia el uso del reconocimiento biométrico, informa Euractiv.

Riesgos de abuso y discriminación
Como moderador del evento, el eurodiputado Patrick Breyer dijo que existe un «efecto escalofriante» que la vigilancia biométrica podría tener en nuestra sociedad.

«Las personas que se sienten constantemente vigiladas no pueden defender con libertad y valentía sus derechos y una sociedad justa», dijo Breyer. «Esta no es la sociedad diversa en la que quiero vivir, y en la que quiero que crezca mi hijo».

Breyer se refirió a los problemas de discriminación cuando se utiliza esta tecnología y a cómo ciertos países del mundo están utilizando la vigilancia biométrica con fines autocráticos.

«No es una coincidencia que China, el inventor del sistema de crédito social, se apoye en gran medida en esta tecnología, incluso en Hong Kong cuando los estudiantes protestaban por la democracia», dijo Breyer.

«Tampoco es una coincidencia que Irán quiera utilizar esta tecnología para hacer cumplir las leyes sobre el uso obligatorio de sombreros. No es casualidad que Rusia esté utilizando esta tecnología para perseguir a los manifestantes contra la guerra y también a los reclutas que huyen para su guerra en Ucrania.»

El movimiento Reclaim Your Face está coordinado por la asociación European Digital Rights (EDRI). La asesora política de este grupo, Ella Jakubowska, habló de cómo la tecnología biométrica ya se está utilizando en la UE y provocando problemas de discriminación.

«Hemos visto a personas sin hogar y a inmigrantes sometidos a una vigilancia inteligente, que los castiga en lugar de ayudarlos», dijo Jakubowska. «Los aficionados al deporte son tratados como si fueran delincuentes, identificados erróneamente e incluso multados por intentar asistir a un partido de fútbol. Los manifestantes y los periodistas son perseguidos y reprimidos.

«También sabemos que hay empresas ahora mismo en España, Holanda, la República Checa y probablemente más que están vendiendo tecnologías biométricas que ofrecen perfilar automáticamente a las personas basándose en sus emociones y comportamientos, su género y su etnia», dijo Jakubowska.

Un artículo de Vice en 2019 afirmaba que la policía de los Países Bajos tenía una base de datos de 2,2 millones de imágenes, que representaban a 1,3 millones de personas sospechosas de haber cometido un delito que podría suponer cuatro años o más de cárcel.

El GDPR no es suficiente
Un representante compartió detalles sobre cómo sus datos biométricos estaban siendo utilizados sin su consentimiento por una empresa estadounidense.

Matthias Marx es miembro del Chaos Computer Club, una gran asociación de hackers y miembro de EDRI. En 2020, Marx envió una solicitud de acceso a los datos a Clearview AI, una polémica empresa de reconocimiento facial con sede en Estados Unidos.

Marx presentó la solicitud poco después de que una investigación del New York Times revelara detalles de las herramientas de seguimiento y vigilancia de la empresa. Descubrió que Clearview AI estaba procesando sus datos biométricos sin su consentimiento y presentó una queja ante la autoridad de protección de datos de Hamburgo.

«Lo que siguió es una lucha muy larga que aún no ha terminado», dijo Marx. «Lo que aprendimos después de este viaje de dos años y medio es que el GDPR no protege contra la vigilancia biométrica».

Clearview AI le dijo a Marx que sus datos biométricos habían sido borrados, pero Marx afirmó que «podrían simplemente volver a escanear mi cara en otra foto que encuentren, así que este asunto no está resuelto».

«Necesitamos una regulación fuerte, necesitamos una prohibición de la vigilancia biométrica», dijo Marx. «Deberíamos actuar ya, porque incluso europeas [empresas como Clearview AI] han empezado a surgir».

Clearview AI se ha enfrentado a la presión de organizaciones y organismos de control de todo el mundo. Por ejemplo, las autoridades de Australia y Canadá han ordenado a la empresa que deje de recoger imágenes de los ciudadanos de estos países.

El Dr. Kris Shrishak, del Consejo Irlandés para las Libertades Civiles, dijo anteriormente a SiliconRepublic.com que puede ser difícil para los reguladores hacer cumplir las sentencias contra Clearview AI, ya que tiene su sede en Estados Unidos y no parece tener oficinas en otros países.

Fuera de la UE, los gobiernos y las organizaciones han empezado a prestar más atención a las cuestiones relacionadas con la tecnología biométrica.

El mes pasado, la Oficina del Comisionado de Información del Reino Unido (ICO) advirtió a las organizaciones contra el uso de tecnología «inmadura» de análisis de las emociones. El organismo de control dijo que estos sistemas son «mucho más arriesgados» que la tecnología biométrica tradicional y podrían crear problemas de sesgo, inexactitud y discriminación.

La ICO también está elaborando unas directrices sobre el uso generalizado de las tecnologías biométricas, como los sistemas de reconocimiento facial, de huellas dactilares y de voz, que tiene previsto publicar el año que viene.

En junio, Microsoft limitó el acceso a partes de su tecnología de reconocimiento facial y eliminó ciertas funciones que detectan rasgos controvertidos como la edad, el sexo y el estado emocional de una persona. La empresa dijo que esta decisión formaba parte de un impulso más amplio para el uso ético de la IA.

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorLinkedIn lanza nueva función de seguridad para identificar perfiles falsos
Artículo siguienteTSMC espera trasladar la producción de 3nm a EE.UU. y ahora empieza a trabajar en 1nm