Podríamos tener sólo dos años para frenar la IA, advierte experto en tecnología

Matt Clifford, asesor del primer ministro de UK afirmó que podrían surgir sistemas "muy poderosos" que los humanos tendrían dificultades para controlar

0
46

Mientras la Inteligencia Artificial (IA) sigue avanzando a una velocidad de vértigo, a los expertos les preocupa que pueda superar a las normativas para controlarla.

Matt Clifford, asesor del primer ministro de UK Rishi Sunak en materia de tecnología, afirma que, a menos que se regule a los productores de IA a escala mundial, podrían surgir sistemas «muy poderosos» que los humanos tendrían dificultades para controlar.

Incluso los riesgos a corto plazo son «bastante aterradores», declaró en una entrevista, ya que la IA tiene el potencial de crear armas cibernéticas y biológicas que podrían causar muchas muertes.

Estas declaraciones se producen después de que recientemente se publicara una carta respaldada por decenas de expertos, entre ellos pioneros de la IA, en la que se advertía de que los riesgos de esta tecnología deberían tratarse con la misma urgencia que las pandemias o las guerras nucleares.

Jefes de empresas como Google DeepMind y Anthropic firmaron la carta, junto con el llamado «padrino de la IA», Geoffrey Hinton.

Hinton dimitió recientemente de Google y alertó sobre los peligros de la IA, afirmando que una parte de él se arrepentía ahora del trabajo de su vida.

Clifford asesora al Primer Ministro en el desarrollo del Grupo de Trabajo sobre Modelos Fundamentales del Gobierno británico, que estudia modelos lingüísticos de IA como ChatGPT y Google Bard, y es también presidente de la Agencia de Investigación e Invención Avanzadas (Aria).

Creo que la IA entraña muchos tipos de riesgos diferentes y, a menudo, en el sector hablamos de riesgos a corto y largo plazo.

Hoy en día se puede utilizar la IA para crear nuevas recetas de armas biológicas o para lanzar ciberataques a gran escala. Son cosas terribles.

El tipo de riesgo existencial al que creo que se referían los autores de la carta es… lo que ocurrirá una vez que hayamos creado una nueva especie, una inteligencia superior a la humana».

Aunque admitió que un plazo de dos años para que los ordenadores superen a la inteligencia humana es «el extremo optimista del espectro», Clifford afirmó que los sistemas de IA son «cada vez más capaces a un ritmo cada vez mayor».

A la pregunta sobre el porcentaje de probabilidades de que la humanidad sea aniquilada por la IA, Clifford respondió: «Creo que no es cero».

Y añadió: «Si pensamos en cosas como las armas biológicas o los ciberataques, podemos tener amenazas realmente peligrosas para los humanos que podrían matar a muchos humanos -no a todos- simplemente desde donde esperaríamos que estuvieran los modelos dentro de dos años».

Creo que en lo que hay que centrarse ahora es en cómo asegurarnos de que sabemos cómo controlar estos modelos, porque ahora mismo no lo sabemos».

El experto en tecnología afirmó que la producción de IA debe ser regulada a escala mundial y no sólo por los gobiernos nacionales.

Las aplicaciones de IA se han hecho virales en Internet, con usuarios que publican imágenes falsas de famosos y políticos, y estudiantes que utilizan ChatGPT y otros modelos de aprendizaje de idiomas para generar redacciones de nivel universitario.

Pero la IA también puede realizar tareas que salvan vidas, como analizar imágenes médicas como radiografías, escáneres y ecografías, ayudando a los médicos a identificar y diagnosticar enfermedades como el cáncer y afecciones cardiacas con mayor precisión y rapidez.

Clifford afirma que la IA, si se aprovecha correctamente, puede ser una fuerza positiva.

Podemos imaginarnos la IA curando enfermedades, haciendo que la economía sea más productiva, ayudándonos a conseguir una economía neutra en carbono», afirmó.

El martes, Clifford tuiteó que había «muchos matices» en lo que había dicho.

Los riesgos a corto y largo plazo de la inteligencia artificial son reales y hay que pensar seriamente y con urgencia en mitigarlos», afirmó, añadiendo una transcripción más larga de la entrevista.

Los legisladores deben prohibir a los desarrolladores de tecnología trabajar en herramientas avanzadas de IA a menos que se les haya concedido una licencia.

Fuente WEB | Editado por CambioDigital OnLine

 

Custom Text
Artículo anteriorFurukawa Solutions consolida presencia en la región Andina
Artículo siguienteLa UE advierte a Musk: «Elegir la confrontación, es un error»