El Allen Institute for AI (AI2) es una organización de investigación sin fines de lucro fundada en 2014 en Seattle, dedicada al desarrollo de inteligencia artificial orientada al bien público. Su trabajo combina investigación científica, ingeniería aplicada y la creación de recursos abiertos para la comunidad, con proyectos que abarcan desde modelos de lenguaje hasta herramientas para la comprensión del conocimiento científico. En este contexto, AI2 ha impulsado iniciativas que buscan democratizar el acceso a tecnologías avanzadas, especialmente en áreas donde los modelos cerrados suelen dominar.
Ahora AI2 presentó Open Coding Agents, una familia de agentes de codificación diseñada para que desarrolladores, investigadores y equipos pequeños puedan entrenar y adaptar modelos especializados a cualquier repositorio de software. La propuesta responde a un problema recurrente: aunque los agentes de codificación han avanzado con rapidez, la mayoría sigue siendo costosa de entrenar, difícil de adaptar a código privado y limitada por su carácter cerrado.
Un enfoque abierto para agentes de software
La iniciativa introduce no solo modelos abiertos, sino también un método de entrenamiento que permite construir agentes capaces de generar código, revisar cambios, depurar errores y mantener repositorios. La idea central es que estos agentes puedan aprender de cualquier base de código, incluidas aquellas que contienen estructuras internas, APIs personalizadas o convenciones específicas que los modelos generales no conocen.
AI2 destaca que reproducir el rendimiento del mejor modelo abierto previo requiere alrededor de 400 dólares en cómputo, mientras que alcanzar niveles comparables a modelos industriales de tamaño similar puede costar cerca de 12.000 dólares. Estas cifras buscan mostrar que el entrenamiento especializado puede estar al alcance de laboratorios académicos, pequeñas empresas o desarrolladores independientes.
SERA: el primer agente de la familia
El primer lanzamiento dentro de Open Coding Agents es SERA (Soft‑verified Efficient Repository Agents), una serie de modelos basados en Qwen3 y entrenados con contextos de hasta 32.000 tokens. El modelo más grande, SERA‑32B, resuelve el 54,2% de los problemas del benchmark SWE‑Bench Verified en configuraciones de 64K de contexto, superando a modelos abiertos de tamaño comparable.
SERA fue optimizado en colaboración con NVIDIA para aprovechar hardware acelerado, alcanzando velocidades de generación que rondan los 1.950 tokens por segundo en precisión BF16 con cuatro GPUs H100, y cerca de 3.700 tokens por segundo en FP8. En hardware de próxima generación, como sistemas Blackwell B200, el rendimiento escala aún más.
La compatibilidad con Claude Code permite integrar SERA en flujos de trabajo existentes, y su diseño facilita la especialización mediante ajuste fino supervisado, sin necesidad de infraestructuras complejas de aprendizaje por refuerzo.
Un método de entrenamiento centrado en datos sintéticos
El avance principal de AI2 se basa en un enfoque de generación sintética denominado Soft‑verified Generation (SVG). En lugar de exigir que cada ejemplo de entrenamiento esté completamente verificado, el método acepta parches parcialmente correctos, lo que reduce la necesidad de pruebas exhaustivas y simplifica la creación de datos.
La técnica se complementa con un “menú” de 51 tipos de errores comunes, que permite generar múltiples trayectorias de entrenamiento para cada función de un repositorio. Este enfoque incrementa la diversidad de ejemplos sin depender de encontrar errores reales en el código.
AI2 sostiene que lo importante no es la corrección absoluta del código generado, sino que los datos reflejen el flujo de trabajo típico de un desarrollador: identificar un problema, proponer un cambio y evaluar su impacto. Esta perspectiva permite escalar la generación de datos a cualquier repositorio, incluidos aquellos sin conjuntos de pruebas completos.
Resultados en repositorios reales
Para evaluar la capacidad de especialización, AI2 probó SERA en tres repositorios grandes incluidos en SWE‑Bench: Django, SymPy y Sphinx. Con 8.000 trayectorias sintéticas por repositorio, los modelos especializados igualaron o superaron a su modelo “profesor” de más de 100.000 millones de parámetros en varios casos. En Django, por ejemplo, el modelo especializado alcanzó 52,23%, frente al 51,20% del profesor.
Estos resultados sugieren que un modelo relativamente pequeño, entrenado con datos sintéticos adaptados a un repositorio concreto, puede ofrecer un rendimiento competitivo con modelos mucho más grandes y costosos.
Un paquete completo para reproducibilidad
AI2 publicó los modelos, el código, los datos generados y la receta completa para entrenar nuevos agentes. El objetivo es facilitar la reproducibilidad y permitir que otros investigadores exploren variantes, comparen resultados y adapten los modelos a nuevos dominios.
El despliegue de SERA puede realizarse con pocas líneas de código, y el entrenamiento supervisado estándar reduce la complejidad operativa. Esta accesibilidad busca ampliar la investigación en agentes de codificación, un área que hasta ahora ha estado dominada por organizaciones con recursos significativos.
Perspectivas
Open Coding Agents se presenta como una alternativa abierta en un campo donde los modelos cerrados han marcado el ritmo. Su enfoque en eficiencia, reproducibilidad y adaptación a código privado podría impulsar nuevas líneas de investigación y facilitar que equipos pequeños experimenten con agentes especializados.
A medida que la industria adopta agentes capaces de interactuar con repositorios complejos, la posibilidad de entrenarlos de forma económica y transparente puede influir en cómo se desarrollan y mantienen los sistemas de software. AI2 plantea que este tipo de herramientas permitirá estudiar con mayor rigor el comportamiento de los agentes y avanzar hacia prácticas más accesibles y verificables en el desarrollo asistido por IA.
Fuente: nota de prensa AI2 | Editado por CDOL








































