La última incursión de Meta en la generación de imágenes mediante IA es rápida. La empresa añadió el martes su nuevo modelo «3D Gen», un «proceso rápido y avanzado» para transformar texto en imágenes 3D de alta fidelidad en menos de un minuto.
Además, el sistema es capaz de aplicar nuevas texturas y pieles tanto a las imágenes generadas como a las producidas por el artista mediante mensajes de texto.
Según un estudio reciente del equipo de investigación Meta Gen AI, 3D Gen no sólo ofrecerá texturas y mapas de materiales de alta resolución, sino que también soportará el renderizado basado en la física (PBR) y la retexturización generativa.
📣 New research from GenAI at Meta, introducing Meta 3D Gen: A new system for end-to-end generation of 3D assets from text in <1min.
Meta 3D Gen is a new combined AI system that can generate high-quality 3D assets, with both high-resolution textures and material maps end-to-end,… pic.twitter.com/rDD5GzNinY
— AI at Meta (@AIatMeta) July 2, 2024
El equipo estima un tiempo medio de inferencia de sólo 30 segundos para crear el modelo 3D inicial utilizando el modelo 3D AssetGen de Meta. A continuación, los usuarios pueden volver atrás y refinar la textura del modelo existente o sustituirla por algo nuevo, ambas cosas mediante mensajes de texto, utilizando Meta 3D TextureGen, un proceso que, según la empresa, no debería llevar más de 20 segundos adicionales de tiempo de inferencia.
«Combinando sus puntos fuertes», escribe el equipo en el resumen del estudio, «3DGen representa objetos 3D simultáneamente de tres formas: en el espacio de visión, en el espacio volumétrico y en el espacio UV (o de textura)». El equipo de Meta comparó su modelo 3DGen con una serie de modelos de referencia del sector en función de diversos factores, como la fidelidad de los textos, la calidad visual, los detalles de las texturas y los artefactos. Al combinar las funciones de ambos modelos, las imágenes generadas por el proceso integrado de dos fases fueron elegidas por los anotadores en un 68% de las ocasiones.
Es cierto que el sistema analizado en este artículo aún está en fase de desarrollo y no está listo para su uso público, pero los avances técnicos que ilustra este estudio podrían resultar transformadores en diversas disciplinas creativas, desde los efectos de juegos y películas hasta las aplicaciones de realidad virtual.
Dar a los usuarios la capacidad no sólo de crear, sino también de editar contenidos generados en 3D, de forma rápida e intuitiva, podría reducir drásticamente la barrera de entrada a este tipo de actividades. No es difícil imaginar el efecto que esto podría tener en el desarrollo de juegos, por ejemplo.
Fuente WEB | Editado por CambioDigital Online