Introducción
Probablemente ya te has expuesto a modelos de AI21 Labs. Me siento muy cómodo trabajando con ellos, pero uno de los desafíos ha sido registrar manualmente la historia de mi interacción con el modelo. ¡Afortunadamente, LangChain ha hecho posible implementar esta operación de manera rápida y eficiente!
En este tutorial, explicaré cómo implementar esta característica rápidamente, permitiéndote experimentar más por tu cuenta.
Implementación
Dependencias
Primero, necesitamos crear un directorio de proyecto, configurar un entorno virtual e instalar algunas dependencias necesarias. ¡Comencemos!
Creando un Entorno Virtual
Para crear un entorno virtual, puedes usar el siguiente comando en tu terminal:
python -m venv myenv
Reemplaza myenv
con el nombre que desees para tu entorno.
Instalando Dependencias
Una vez que tu entorno esté configurado, puedes instalar las dependencias requeridas usando:
pip install langchain ai21
Esto instalará tanto LangChain como las integraciones de la API de AI21 para nuestro proyecto.
¡Hora de Codificar!
¡Ahora podemos comenzar a codificar! Comienza creando un archivo .env
en tu directorio de proyecto para almacenar tu clave API de AI21 Labs Studio. Usa AI21_API_KEY
como el nombre de la variable.
Creando el Archivo de Código Principal
A continuación, crea un archivo main.py
donde escribiremos nuestro código. Para empezar, importa todos los módulos necesarios y carga tu clave API:
import os
from langchain.llm import OpenAI
from langchain.memory import ConversationBufferMemory
from langchain.chains import LLMChain
Construyendo el Chatbot
Para los propósitos de este tutorial, demostraré cómo crear un chatbot simple que se ejecute en la terminal. ¡Sin embargo, siéntete libre de adaptar este método para tus aplicaciones únicas!
Primero, crearé una plantilla de aviso para guiar al modelo en la comprensión de nuestra tarea. Dado que utilizaré un LLM regular en lugar de un modelo de chat, este paso es esencial.
También estableceré un objeto de memoria que almacenará la historia de la conversación. Aunque elegí usar ConversationBufferMemory, puedes explorar otros tipos de memoria como se indica en este artículo.
Creando el LLMChain
Configuramos el LLMChain que manejará nuestra conversación. Usaré verbose=True
para monitorear la entrada de memoria a la cadena.
memory = ConversationBufferMemory()
llm = OpenAI(api_key=os.getenv('AI21_API_KEY'))
chain = LLMChain(llm=llm, memory=memory, verbose=True)
Bucle Principal para la Conversación
Ahora podemos crear el bucle principal que iterará a través de las diferentes etapas de nuestra conversación.
while True:
user_input = input("Tú: ")
response = chain.run(user_input)
print(f"Bot: {response}")
Resultados
¡Ejecutemos nuestra aplicación!
Pruebas de Conversación
En la prueba del chatbot, realicé una conversación simple para evaluar el rendimiento de nuestro programa. Como se pudo demostrar, la historia de la conversación se mantiene y funciona correctamente más allá del primer intercambio!
Esta implementación es increíblemente fácil y rápida, mostrando el poder de combinar AI21 y LangChain para construir aplicaciones robustas. Te animo a participar en nuestro próximo Hackathon Plug into AI with AI21 para explorar y crear aún más!
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.