AI tutorial

Agrega Memoria al Modelo de AI21 Labs Usando LangChain: Un Tutorial Rápido

Diagram showing the process of adding memory to AI21 model with LangChain.

Introducción

Probablemente ya te has expuesto a modelos de AI21 Labs. Me siento muy cómodo trabajando con ellos, pero el gran problema siempre ha sido tener que registrar manualmente la historia de mi interacción con el modelo. Sin embargo, muchas cosas han cambiado y LangChain hace posible implementar tal operación en un abrir y cerrar de ojos!

En este tutorial, explicaré cómo implementar esto rápidamente, ¡luego podrás jugar con ello tú mismo!

Implementación

Dependencias

Primero, necesitamos crear un directorio de proyecto, un entorno virtual e instalar algunas dependencias. ¡Hagámoslo!

Creando un Entorno Virtual

Ahora, necesitamos crear un entorno virtual:

Instalando Dependencias

Último paso de esta etapa: instalando dependencias:

¡Hora de Codificar!

¡Ahora podemos comenzar a codificar! Primero, necesitamos crear un archivo .env con nuestra clave API. Puedes obtenerla de AI21 Labs Studio. Usaré AI21_API_KEY como el nombre de la variable.

Ahora, podemos crear el archivo main.py y comenzar a codificar!

Importando Módulos y Cargando la Clave API

Importaré todos los módulos necesarios y cargaré la clave API.

Decidí construir un chatbot simple para este tutorial. Será muy simple y funcionará en un terminal. Siéntete libre de crear cualquier otra aplicación; ¡solo quiero mostrarte cómo puedes hacerlo! De todos modos, ¡hagámoslo!

Creando una Plantilla de Prompt

Crearé una plantilla de prompt que facilitará que el modelo entienda nuestra tarea. Como utilizaré un modelo que por defecto no es un modelo de chat, sino un LLM regular, esto es necesario.

También crearé un objeto de memoria que almacenará nuestro historial de conversación.

Usaré ConversationBufferMemory, pero puedes usar otro tipo de memoria. En este artículo sobre tipos de memoria de conversación, ¡se explican bien otros! ¡Échale un vistazo!

Creando un LLMChain

Ahora podemos crear un LLMChain que se encargará de nuestra conversación.

Utilizo verbose=True para navegar la entrada de memoria a la Cadena.

Ciclo Principal

Genial, ahora podemos crear un ciclo principal que itere a través de las etapas de nuestra conversación.

Resultados

¡Ejecutemos nuestra aplicación!

Conversación

Realicé una conversación simple para probar el rendimiento de nuestro programa. Como puedes ver, la historia ya está funcionando en la segunda etapa, ¡como debería ser!

Como puedes ver, implementar esto no es tan difícil y no toma mucho tiempo. Con la combinación de AI21 y LangChain, somos capaces de construir aplicaciones realmente poderosas. Te animo a que lo pruebes durante nuestro Hackathon 'Plug into AI with AI21'! ¡Siéntete libre de unirte y construir con nosotros!

Puede que te interese

A visual representation of debugging using Monday.com and GPT integration.
Superhero Help Desk App powered by Cohere and Chroma Database

Dejar un comentario

Todos los comentarios se revisan antes de su publicación.

Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.