¿Has oído hablar de la última novedad en inteligencia artificial generativa? Se llama ControlNet y está complementando a Stable Diffusion para llevar la creación de imágenes a otro nivel.
Crea imágenes increíbles
Básicamente, ControlNet es una nueva estructura de red neuronal que permite modificar la salida de Stable Diffusion para que se ajuste a ciertas condiciones de control o modelos.
Ahora, los usuarios pueden experimentar con esta nueva tendencia y descubrir toda la versatilidad que ofrece.
Ahora puedes utilizar los “modelos preentrenados” para crear imágenes más impresionantes que nunca. Hay varios modelos disponibles, como Canny Edge (para detectar bordes), Open POSE (para detectar poses y generar un “esqueleto” de la imagen original) y User Scribble (para dibujar un garabato y que se genere una imagen basada en él).
Simplemente tienes que aplicar Stable Diffusion a cualquier prompt con la imagen y el modelo elegidos, y obtendrás variantes mucho más potentes para tus creaciones.
Hay un modelo llamado “Scribble” que algunos han bautizado como la clave para crear imágenes de nivel dios. Antes ya había opciones similares en Stable Diffusion 2.5, como img2img, pero esto lleva la creación a otro nivel.
Y, por si fuera poco, esto también funciona para vídeos, puedes combinar ControlNet y estos modelos para crear animaciones. Todo esto se puede instalar y usar en tu ordenador gracias a proyectos como Automatic1111.
Resultados increíbles
Claro, lo ideal es que tengas una tarjeta gráfica potente (con 12 GB de memoria VRAM), pero también puedes usar estos modelos con configuraciones más modestas.
Si ya estábamos impresionados con los resultados de Stable Diffusion, con estas “extensiones” la plataforma se ha vuelto aún más potente para ayudarnos con cualquier proyecto creativo.
La evolución de estos proyectos es increíblemente rápida y aunque a veces puedan fallar, las herramientas son absolutamente espectaculares.