AI tools

Tutorial de Stable Diffusion: Prototipado con la Interfaz Web

A detailed view of the Stable Diffusion Web UI showcasing its features.

¿Qué es Stable Diffusion?

Stable Diffusion es un modelo de difusión de texto a imagen basado en aprendizaje profundo que ha revolucionado el campo, presentado en 2022. Esta tecnología innovadora está diseñada principalmente para generar imágenes basadas en descripciones de texto, lo que permite a los usuarios convertir sus ideas escritas en representaciones visuales vívidas. Más allá de generar imágenes, Stable Diffusion también admite diversas tareas que incluyen inpainting, outpainting y traducción de imagen a imagen guiadas por indicaciones de texto, convirtiéndolo en una herramienta versátil en el mundo de la inteligencia artificial.

Cómo usar la interfaz web de Stable Diffusion localmente

Para aquellos que buscan probar el modelo localmente, el usuario de GitHub AUTOMATIC1111 ha desarrollado una interfaz web de Stable Diffusion que permite a los usuarios realizar experimentos en un entorno amigable. Esta interfaz web está construida utilizando Gradio, una biblioteca de Python que facilita la creación de componentes de interfaz de usuario.

Características de la interfaz web

  • Modos originales de txt2img e img2img
  • Instalación con un clic y script de ejecución (requiere instalación de Python y Git)
  • Outpainting
  • Inpainting
  • Esbozo de color
  • Matriz de indicaciones
  • Escalado de Stable Diffusion
  • Capacidad de especificar partes del texto en las que el modelo debe enfocarse
  • Pestaña de extras que incluye:
    • GFPGAN: Red neuronal de restauración facial
    • CodeFormer: Una herramienta alternativa para la restauración facial
    • RealESRGAN: Escalador de red neuronal
    • ESRGAN: Opciones avanzadas de escalado
    • SwinIR y Swin2SR: Escaladores avanzados
    • LDSR: Super-resolución de difusión latente
  • Diferentes opciones de relación de aspecto para redimensionar
  • Botón de artista aleatorio: Genera imágenes al estilo de artistas aleatorios
  • Estilos: Guardar y aplicar partes de indicaciones fácilmente
  • Variaciones: Generar imágenes similares con ligeras diferencias

Cómo usar la interfaz web

Para usuarios de Windows

  1. Descarga e instala Python 3.10.6, asegurándote de marcar "Agregar Python al PATH" durante la instalación.
  2. Instala Git.
  3. Clona el repositorio ejecutando el comando: git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git.
  4. Coloca model.ckpt en el directorio models (consulta las dependencias para la fuente del modelo).
  5. (Opcional) Coloca GFPGANv1.4.pth en el directorio base junto a webui.py.
  6. Ejecuta webui-user.bat desde el Explorador de Windows como un usuario normal (no administrador).

Para usuarios de Linux

Para instalar en /home/$(whoami)/stable-diffusion-webui/, utiliza los comandos apropiados para tu distribución para manejar las dependencias.

Para usuarios de Apple Silicon

Las instrucciones y los detalles de compatibilidad se pueden encontrar en los enlaces de documentación oficial proporcionados en el repositorio de GitHub.

Recursos adicionales

Para obtener indicaciones optimizadas y maximizar los resultados con Stable Diffusion, se recomienda encarecidamente leer nuestra Guía de indicaciones para Stable Diffusion. Si estás interesado en desarrollar tus propias herramientas basadas en Stable Diffusion, considera participar en nuestro Hackathon de IA de Stable Diffusion!

Mantente actualizado con las últimas tendencias en generación de imágenes de IA siguiendo discusiones y publicaciones relacionadas en el campo.

Puede que te interese

A visual guide to using Lexica, the Stable Diffusion AI image search engine for art.
Creating a Disney Pixar style avatar using Stable Diffusion tutorial

Dejar un comentario

Todos los comentarios se revisan antes de su publicación.

Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.