generative AI

Guía completa de IBM Watsonx.ai: Explorando la IA generativa

Screenshot from IBM Watsonx.ai showing prompt lab interface

Tutorial: ¿Qué es la IA Generativa y Cómo Se Puede Aplicar?

La IA Generativa, una tecnología de vanguardia, se refiere a modelos de aprendizaje profundo capaces de producir contenido de alta calidad que varía desde texto hasta imágenes. Un tipo significativo de IA generativa es el Modelo de Lenguaje Grande (LLM), conocido por su comprensión y capacidades de generación de propósito general.

En este tutorial, exploraremos cómo aprovechar la ingeniería de prompts con los LLMs para obtener respuestas precisas, relevantes y contextualmente ricas, específicamente relacionadas con información de viaje sobre varios países.

Paso 1: Comenzando

Abre Watsonx.ai Prompt Lab y selecciona la opción Modo libre. Verás el editor de prompts en el centro, junto con los parámetros del modelo en el lado derecho para optimizar las respuestas. Un resumen de tokens aparece en la esquina inferior izquierda, indicando el número de tokens utilizados durante la ejecución.

Ten en cuenta que los modelos son modelos base alojados en la Nube de IBM, lo que permite la inferencia e interacción del modelo.

Paso 2: Prompt Inicial

Comienza introduciendo un prompt simple. Por ejemplo:

Modelo: flan-t5-xxl-11b
Texto del prompt: Estoy pensando en viajar a Tailandia.

La salida puede no proporcionar información útil, similar a hacer una pregunta vaga con respuestas amplias. Ahora, refinaremos el prompt para reunir datos más específicos.

Paso 3: Refinando el Prompt

Para obtener mejores resultados, haz el prompt más directo:

Texto del prompt: Estoy pensando en viajar a Tailandia. Cuéntame sobre Tailandia.

Esta versión produce una respuesta más relevante, pero puede terminar abruptamente debido a las limitaciones del parámetro Max tokens. Aumenta los tokens máximos para mejorar esto.

Paso 4: Ajustando Parámetros del Modelo

Aumenta el Max tokens a 200:

Modelo: flan-t5-xxl-11b
Texto del prompt: Estoy pensando en viajar a Tailandia. Cuéntame sobre Tailandia.

Esto permitirá una respuesta completa. Si el modelo devuelve constantemente la misma respuesta, cambia el modo de decodificación a Muestreo en lugar de Decodificación codiciosa para generar salidas variadas.

Paso 5: Información Dirigida

Para adaptar las respuestas a los intereses del usuario, refina aún más el prompt:

Texto del prompt: Estoy pensando en viajar a Tailandia. Me gustan los deportes acuáticos y la comida. Cuéntame sobre Tailandia.

Si la información sigue siendo limitada, considera explorar modelos alternativos.

Paso 6: Explorando Otros Modelos

Watsonx.ai proporciona tarjetas de modelo con detalles comprehensivos sobre varios modelos. Accede a esto haciendo clic en el menú desplegable cerca del nombre del modelo:

  • Información del proveedor y la fuente
  • Tareas mejor adecuadas para el modelo
  • Cómo ajustar el modelo
  • Documentos de investigación
  • Sesgos, riesgos y limitaciones

Considera seleccionar el modelo llama-2-70b-chat, que está optimizado para casos de uso de diálogo.

Paso 7: Probando un Nuevo Modelo

Con el nuevo modelo seleccionado, vuelve a ejecutar el prompt anterior:

Texto del prompt: Estoy pensando en viajar a Tailandia. Me gustan los deportes acuáticos y la comida. Cuéntame sobre Tailandia.

Asegúrate de monitorear la longitud de la salida y evitar alcanzar nuevamente el límite de Max tokens.

Paso 8: Agregando Límites a las Respuestas

Agrega restricciones directamente al prompt para obtener resultados más enfocados:

Texto del prompt: Estoy pensando en viajar a Tailandia. Me gustan los deportes acuáticos y la comida. Dame 5 oraciones sobre Tailandia.

Estas modificaciones conducirán a resultados informativos y adaptados mientras se mantiene dentro de tu presupuesto de tokens.

Conclusión y Próximos Pasos

Ajustar prompts es una alternativa práctica a entrenar nuevos modelos para necesidades específicas. Este tutorial ilustró la naturaleza iterativa de la ingeniería de prompts, enfatizando la importancia del contexto y las consultas dirigidas.

Como nota final, todas las interacciones del modelo ocurren a través de la Nube de IBM. Para detalles técnicos sobre las llamadas a la API, revisa la salida seleccionando Ver código en el laboratorio de prompts.

Para un aprendizaje adicional, considera experimentar con diferentes prompts y parámetros para descubrir respuestas generativas matizadas y centradas en el usuario.

Puede que te interese

Fine-tuning TinyLLaMA with Unsloth on Google Colab using GPU.
Visual guide to efficient AI model training with original and fine-tuned models comparison.

Dejar un comentario

Todos los comentarios se revisan antes de su publicación.

Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.