OpenAI lanza una versión más pequeña y limitada de GPT-2

0
80
Abstract glowing polygonal head background with neurons. Artificial intelligence and network concept. 3D Rendering

OpenAI, compañía de investigación de inteligencia artificial sin fines de lucro, ha limitado la versión disponible públicamente de un nuevo generador de texto basado en AI debido a “preocupaciones por las aplicaciones maliciosas de la tecnología”.

El grupo reveló había estado entrenando un modelo de lenguaje no supervisado a gran escala que tiene la capacidad de generar “párrafos coherentes de texto” utilizando un indicador humano como punto de partida.

El modelo, llamado GPT-2, es un modelo de lenguaje grande basado en transformador con 1.500 millones de parámetros, entrenado con un conjunto de datos de ocho millones de páginas web.

“GPT-2 genera muestras de texto sintéticas en respuesta al modelo que se está alimentando con input arbitrario”, explicó OpenAI, que está respaldado por personalidades como Elon Musk y Peter Thiel.

El grupo compartió una serie de ejemplos de las capacidades del modelo. A partir del input“Miley Cyrus fue sorprendida robando en una tienda de Abercrombie and Fitch en Hollywood Boulevard hoy”, siguió con una amena historia que fácilmente podría haber sido escrita por un reportero. A partir del input “Legolas y Gimli avanzaron sobre los orcos, alzando sus armas con un desgarrador grito de guerra”, completa un breve cuento de fantasía, con personajes y diálogo.

“El modelo es similar a un camaleón: se adapta al estilo y al contenido del texto de condicionamiento. Esto permite al usuario generar continuaciones realistas y coherentes sobre un tema de su elección”, afirmó OpenAI.

A pesar de algunas limitaciones -como la repetición del texto y lo que los investigadores denominan “fallas en el modelado del mundo”como fuego que ocurre bajo el agua- el modelo es capaz de generar resultados que “se sienten cercanos a la calidad humana y muestran coherencia en una página o más de texto”.

Su capacidad -que muestra una mejora en varios modelos de lenguaje específicos de un campo- es tan impresionante que OpenAI ha decidido lanzar una versión más pequeña y limitada de GPT-2.

“Estos ejemplos tienen implicaciones políticas importantes: los grandes modelos de lenguaje se están volviendo cada vez más fáciles de dirigir hacia la generación de textos escalable, personalizada y coherente, la cual a su vez se podría usar de varias maneras beneficiosas y maliciosas”, afirmó el grupo.

Potencialmente, podría usarse para generar artículos de noticias engañosas, hacerse pasar por otros en línea, automatizar la producción de contenido abusivo o falso para publicar en redes sociales, o automatizar la producción de contenido de spam y phishing, argumentaron los investigadores.

“Estos hallazgos, combinados con resultados anteriores en imágenes, audio y video sintéticos, implican que las tecnologías están reduciendo el costo de generar contenido falso y realizar campañas de desinformación”. Agregaron que “el público en general tendrá que mostrarse más escéptico ante el texto que encuentra en línea, de la misma manera en que el fenómeno de las ‘falsificaciones profundas’ exige más escepticismo sobre las imágenes”.

Sin embargo, los casos de uso no son todos malos. OpenAI anticipó beneficios a corto plazo para las aplicaciones como los asistentes de escritura basados en IA, mejores agentes de diálogo, traducción no supervisada entre idiomas y mejores sistemas de reconocimiento de voz.

George Nott, Computerworld.com