Adobe Firefly evoluciona hacia un estudio creativo unificado

El nuevo asistente conversacional conecta edición, generación y colaboración en un entorno continuo y adaptable.

0
6
Foto Adobe

Adobe presentó una nueva evolución de su ecosistema creativo al anunciar un agente conversacional capaz de coordinar tareas complejas dentro de Firefly y de las aplicaciones de Creative Cloud. La compañía lo describe como un paso hacia una forma de creación en la que las herramientas se adaptan al lenguaje del usuario y no al revés, permitiendo que una simple instrucción verbal o escrita desencadene procesos que antes requerían múltiples pasos técnicos. La idea es que el creador mantenga el control conceptual mientras el asistente se ocupa de la ejecución, respetando el estilo, las preferencias y el contexto de cada proyecto.

El asistente se integra en Firefly, que Adobe presenta como su estudio central de inteligencia artificial creativa. Desde ese entorno, el usuario puede generar imágenes, editar vídeo, preparar materiales para redes sociales o ajustar fotografías sin necesidad de desplazarse entre aplicaciones. El sistema conserva la información de cada sesión y la traslada a herramientas como Photoshop, Illustrator, Premiere o Express, de modo que una indicación inicial puede continuar desarrollándose a lo largo de distintas fases del trabajo sin perder coherencia. Adobe sostiene que este enfoque reduce la fricción habitual entre la idea y el resultado final, especialmente en proyectos que requieren múltiples formatos o entregas rápidas.

La compañía ha incorporado un conjunto de habilidades preconfiguradas, denominadas Creative Skills, que funcionan como atajos para tareas que suelen demandar tiempo o conocimientos técnicos específicos. Estas habilidades pueden personalizarse y ampliarse, y con el uso continuado el asistente aprende patrones de estilo, preferencias de edición y decisiones estéticas que ayudan a mantener una línea creativa reconocible. Adobe ha insistido en que este aprendizaje se orienta a mejorar la experiencia individual sin comprometer la seguridad ni la autoría del contenido, un aspecto que la empresa ha destacado en todas sus comunicaciones sobre Firefly.

La integración con Frame.io añade una capa de colaboración que permite gestionar versiones, compartir avances y aplicar cambios derivados de comentarios sin necesidad de reconstruir el proyecto. Adobe también anticipó que el asistente podrá trabajar con modelos de terceros, como Claude de Anthropic, para que las ideas concebidas en otras plataformas puedan materializarse directamente en Firefly sin pasos intermedios.

Junto con el asistente, la empresa amplió las capacidades de edición de vídeo dentro de Firefly. Las nuevas funciones incorporan tecnologías ya presentes en Premiere y Adobe Podcast, como la mejora automática de diálogos y la reducción de ruido, además de controles de color más precisos y acceso directo a un catálogo de recursos con licencia de Adobe Stock. En el ámbito de la imagen, la introducción de Precision Flow permite generar variaciones a partir de un mismo prompt mediante un control gradual, mientras que AI Markup facilita la edición directa sobre la imagen mediante trazos o referencias visuales que el sistema interpreta para ajustar iluminación, añadir elementos o modificar la composición.

El catálogo de modelos disponibles en Firefly continúa ampliándose con incorporaciones como Kling 3.0 y Kling 3.0 Omni, orientados a la generación de vídeo con control sobre duración, ángulos de cámara y continuidad entre planos. Estos modelos se suman a otros ya integrados, procedentes de proveedores como Google, Runway, Luma AI, Black Forest Labs, ElevenLabs o Topaz, además de los modelos propios de Adobe entrenados para uso comercial seguro. La estrategia de la compañía apunta a ofrecer un entorno donde distintos modelos puedan convivir y complementarse según las necesidades de cada proyecto.

Todas estas novedades se presentarán en Adobe Summit 2026, donde la empresa planea mostrar cómo la IA agéntica puede acelerar la producción de contenido de marketing y reforzar la coherencia de marca en todo el ciclo de relación con el cliente. El asistente estará disponible en beta pública en las próximas semanas, mientras que las nuevas funciones de edición y los modelos adicionales ya pueden utilizarse dentro de los planes actuales de Firefly.

Fuente: Adobe | Editado por CDOL

Custom Text
Artículo anteriorUna nueva etapa para Codex de OpenAI: del generador de código al asistente operativo
Artículo siguienteCore Series 3: la apuesta de Intel para renovar equipos domésticos y educativos