Parlamento europeo aprueba la primera ley normativa sobre la Inteligencia Artificial

0
19

El Parlamento Europeo finalizó la votación tras alcanzar en diciembre un acuerdo entre los Estados miembros sobre esta legislación histórica. El marco normativo fue propuesto por primera vez en 2021 por la Comisión Europea, el poder ejecutivo de la UE, y su objetivo será regular el uso de la tecnología, clasificándola en categorías de riesgo que van desde «inaceptable», que prohibiría rotundamente su uso, hasta alto, medio y bajo.

La votación convirtió en ley las disposiciones reglamentarias con 523 votos a favor, 46 en contra y 49 no emitidos.

Según la nueva ley, se prohibirán determinadas aplicaciones de la IA, especialmente las que amenacen los derechos de los ciudadanos, incluido su uso para el escaneado biométrico y la categorización por parte de organizaciones policiales y privadas. En concreto, la ley se centra en las aplicaciones que buscan características sensibles y en el rastreo no selectivo de imágenes de Internet o de CCTV para crear bases de datos de reconocimiento facial, en parte porque este tipo de sistemas tienen importantes tasas de falsos positivos. También estarían prohibidos el reconocimiento de emociones en lugares de trabajo y escuelas, la puntuación social, la vigilancia policial predictiva y cualquier uso de la IA que manipule el comportamiento humano.

Las fuerzas de seguridad pueden quedar exentas de la prohibición en casos extremos, como delitos graves como el secuestro o el terrorismo, o con fines como la búsqueda de una persona desaparecida. Esos casos requerirían la supervisión de un juez.

«Por fin tenemos la primera ley vinculante del mundo sobre inteligencia artificial, para reducir riesgos, crear oportunidades, combatir la discriminación y aportar transparencia», dijo Brando Benifei, político y diputado italiano. «Gracias al Parlamento, se prohibirán en Europa las prácticas inaceptables de IA y se protegerán los derechos de trabajadores y ciudadanos».

Los primeros borradores de la ley surgieron cuando el chatbot ChatGPT de OpenAI estaba ganando popularidad y sus impresionantes capacidades conversacionales similares a las humanas empezaban a asombrar al público de todo el mundo junto con otros modelos generativos de IA. Al mismo tiempo, los gobiernos del mundo empezaban a entender cómo se entrenaban los modelos generativos de IA, incluida la necesidad de ingerir grandes cantidades de datos de fuentes privadas y públicas, que podían incluir información personal y protegida por derechos de autor.

El meteórico ascenso de ChatGPT, Gemini de Google LLC (antes Bard), Claude de Anthropic PBC han creado temores sobre los problemas de privacidad y los impactos de los derechos de autor para la industria de la IA. En 2023, los reguladores italianos prohibieron temporalmente los servicios ChatGPT de OpenAI por problemas de privacidad, mientras se iniciaba una investigación sobre sus prácticas.

Para ayudar a comprender lo que implica la formación y el despliegue de la IA generativa y los modelos de IA de propósito general, la Ley de IA también contiene disposiciones de transparencia para el cumplimiento de las leyes de derechos de autor y privacidad. Además, las empresas que construyan modelos más potentes de «alto riesgo» -aquellas que participen en infraestructuras críticas, educación, sanidad, banca, fuerzas de seguridad o similares- tendrán responsabilidades adicionales en la notificación de incidentes y el cumplimiento de las evaluaciones de los modelos.

La Ley de IA también establece que cualquier IA que genere audio o imágenes debe etiquetar claramente los resultados para evitar las «falsificaciones profundas» (deepfakes), con el fin de evitar contenidos manipulados sintéticamente. El auge de los deepfakes ha sido un problema potencialmente insidioso en el que la generación de audio e imágenes mediante IA se ha utilizado para crear imágenes difíciles de distinguir de la realidad que podrían utilizarse para cometer fraudes e influir en el pensamiento público. Una robollamada deepfake que sonaba como el presidente Biden también se utilizó para defraudar a los votantes en unas elecciones primarias en Estados Unidos.

La Ley de Inteligencia Artificial se convertirá en ley en mayo o junio, una vez revisada y aprobada definitivamente por los Estados miembros de la UE.

Fuente WEB | Editado por CambioDigital OnLine

Custom Text
Artículo anteriorCEO de TikTok a los usuarios de EE.UU.: «Hagan oír su voz»
Artículo siguiente¿Qué riesgos puede traer Apple Vision Pro?