En una carta abierta a la comunidad de la IA, un grupo de investigadores de renombre, junto con Elon Musk y otras luminarias de la tecnología, piden a los laboratorios de IA que dejen de profundizar en proyectos de IA a gran escala que sean más potentes que GPT-4, la tecnología detrás de ChatGPT y en muchos otros chatbots de IA populares.
El Future of Life Institute no se anda con rodeos en su carta, que comienza con la advertencia de que «los sistemas de IA con inteligencia humana competitiva pueden plantear profundos riesgos para la sociedad y la humanidad». Continúan advirtiendo que el desarrollo de estos sistemas requiere una planificación y gestión adecuadas, lo cual no está ocurriendo en la actual «carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable.»
«Sólo deben desarrollarse sistemas de IA potentes cuando tengamos la certeza de que sus efectos serán positivos y sus riesgos controlables», «Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema» decía la carta.
Un negocio arriesgado
Los investigadores no piden que se detenga toda la investigación en IA, no buscan quedarse sin trabajo, más bien quieren una pausa de seis meses a lo que llaman «modelos de caja negra impredecibles cada vez más grandes con capacidades emergentes». Durante ese tiempo, los laboratorios de IA y expertos independientes trabajarían juntos para crear normas de seguridad para el desarrollo de la IA que puedan ser «auditadas y supervisadas por expertos externos independientes» para garantizar que el avance de la IA se controle adecuadamente.
OpenAI, la empresa que está detrás de ChatGPT, reconoció algunas de estas preocupaciones en su reciente declaración sobre la inteligencia artificial general. La empresa afirmó que «en algún momento, puede ser importante obtener una revisión independiente antes de empezar a entrenar futuros sistemas, y que los esfuerzos más avanzados acuerden limitar el ritmo de crecimiento de la computación utilizada para crear nuevos modelos.» En lo que difieren es en que el Future of Life Institute considera que ya estamos en ese punto de inflexión.
En este debate es difícil no evocar las IA apocalípticas de la cultura popular. Ya se trate de Skynet en Terminator o de la IA de Matrix, la idea de una IA que adquiere sensibilidad y hace la guerra o esclaviza a la humanidad ha sido un tema popular de la ciencia ficción apocalíptica durante décadas.
Aún no hemos llegado a ese punto, pero ese es precisamente el nivel de preocupación que se plantea aquí. Los investigadores advierten de que no debemos dejar que este tren desbocado adquiera suficiente velocidad como para que no podamos detenerlo.
Estos proyectos de IA parecen herramientas útiles y divertidas, y el Future of Life Insitute quiere que sigan siéndolo, deteniéndolos ahora y dando un paso atrás para considerar los objetivos a largo plazo y la estrategia de desarrollo que hay detrás de ellos, lo que nos permitirá cosechar los beneficios de estas herramientas sin consecuencias desastrosas.
Fuente WEB | Editado por Cambiodigital Online