AI21

Tutorial de AI21: Implementación de Memoria con LangChain para Conversaciones Mejoradas

AI21 Labs model with LangChain integration tutorial image.

Introducción

Probablemente ya te has expuesto a modelos de AI21 Labs. Me siento muy cómodo trabajando con ellos, pero uno de los desafíos ha sido registrar manualmente la historia de mi interacción con el modelo. ¡Afortunadamente, LangChain ha hecho posible implementar esta operación de manera rápida y eficiente!

En este tutorial, explicaré cómo implementar esta característica rápidamente, permitiéndote experimentar más por tu cuenta.

Implementación

Dependencias

Primero, necesitamos crear un directorio de proyecto, configurar un entorno virtual e instalar algunas dependencias necesarias. ¡Comencemos!

Creando un Entorno Virtual

Para crear un entorno virtual, puedes usar el siguiente comando en tu terminal:

python -m venv myenv

Reemplaza myenv con el nombre que desees para tu entorno.

Instalando Dependencias

Una vez que tu entorno esté configurado, puedes instalar las dependencias requeridas usando:

pip install langchain ai21

Esto instalará tanto LangChain como las integraciones de la API de AI21 para nuestro proyecto.

¡Hora de Codificar!

¡Ahora podemos comenzar a codificar! Comienza creando un archivo .env en tu directorio de proyecto para almacenar tu clave API de AI21 Labs Studio. Usa AI21_API_KEY como el nombre de la variable.

Creando el Archivo de Código Principal

A continuación, crea un archivo main.py donde escribiremos nuestro código. Para empezar, importa todos los módulos necesarios y carga tu clave API:

import os
from langchain.llm import OpenAI
from langchain.memory import ConversationBufferMemory
from langchain.chains import LLMChain

Construyendo el Chatbot

Para los propósitos de este tutorial, demostraré cómo crear un chatbot simple que se ejecute en la terminal. ¡Sin embargo, siéntete libre de adaptar este método para tus aplicaciones únicas!

Primero, crearé una plantilla de aviso para guiar al modelo en la comprensión de nuestra tarea. Dado que utilizaré un LLM regular en lugar de un modelo de chat, este paso es esencial.

También estableceré un objeto de memoria que almacenará la historia de la conversación. Aunque elegí usar ConversationBufferMemory, puedes explorar otros tipos de memoria como se indica en este artículo.

Creando el LLMChain

Configuramos el LLMChain que manejará nuestra conversación. Usaré verbose=True para monitorear la entrada de memoria a la cadena.

memory = ConversationBufferMemory()
llm = OpenAI(api_key=os.getenv('AI21_API_KEY'))
chain = LLMChain(llm=llm, memory=memory, verbose=True)

Bucle Principal para la Conversación

Ahora podemos crear el bucle principal que iterará a través de las diferentes etapas de nuestra conversación.

while True:
    user_input = input("Tú: ")
    response = chain.run(user_input)
    print(f"Bot: {response}")

Resultados

¡Ejecutemos nuestra aplicación!

Pruebas de Conversación

En la prueba del chatbot, realicé una conversación simple para evaluar el rendimiento de nuestro programa. Como se pudo demostrar, la historia de la conversación se mantiene y funciona correctamente más allá del primer intercambio!

Esta implementación es increíblemente fácil y rápida, mostrando el poder de combinar AI21 y LangChain para construir aplicaciones robustas. Te animo a participar en nuestro próximo Hackathon Plug into AI with AI21 para explorar y crear aún más!

Puede que te interese

Illustration of BabyAGI's functionality in task management system.
Cohere Tutorial on Text Classification using Natural Language Processing techniques.

Dejar un comentario

Todos los comentarios se revisan antes de su publicación.

Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.