Introduction
Vous avez probablement déjà été exposé à des modèles de AI21 Labs. Je suis très à l'aise pour travailler avec eux, mais l'un des défis a été d'enregistrer manuellement l'historique de mes interactions avec le modèle. Heureusement, LangChain a rendu possible la mise en œuvre de cette opération rapidement et efficacement !
Dans ce tutoriel, je vais expliquer comment mettre en œuvre cette fonctionnalité rapidement, vous permettant d'expérimenter davantage par vous-même.
Mise en œuvre
Dépendances
Tout d'abord, nous devons créer un répertoire de projet, configurer un environnement virtuel et installer quelques dépendances nécessaires. Commençons !
Création d'un Environnement Virtuel
Pour créer un environnement virtuel, vous pouvez utiliser la commande suivante dans votre terminal :
python -m venv myenv
Remplacez myenv
par le nom de votre environnement souhaité.
Installation des Dépendances
Une fois votre environnement configuré, vous pouvez installer les dépendances requises en utilisant :
pip install langchain ai21
Cela installera à la fois LangChain et les intégrations de l'API AI21 pour notre projet.
Temps de Codage !
Maintenant, nous pouvons commencer à coder ! Commencez par créer un fichier .env
dans votre répertoire de projet pour stocker votre clé API de AI21 Labs Studio. Utilisez AI21_API_KEY
comme nom de variable.
Création du Fichier de Code Principal
Ensuite, créez un fichier main.py
où nous allons écrire notre code. Pour commencer, importez tous les modules nécessaires et chargez votre clé API :
import os
from langchain.llm import OpenAI
from langchain.memory import ConversationBufferMemory
from langchain.chains import LLMChain
Création du Chatbot
Pour les besoins de ce tutoriel, je vais montrer comment créer un simple chatbot qui fonctionne dans le terminal. Cependant, n'hésitez pas à adapter cette méthode à vos applications uniques !
Tout d'abord, je vais créer un modèle de prompt pour guider le modèle dans la compréhension de notre tâche. Comme je vais utiliser un LLM régulier au lieu d'un modèle de chat, cette étape est essentielle.
Je vais également établir un objet de mémoire qui stockera l'historique de la conversation. Bien que j'aie choisi d'utiliser ConversationBufferMemory, vous pouvez explorer d'autres types de mémoire comme noté dans cet article.
Création de l'LLMChain
Mettons en place le LLMChain qui gérera notre conversation. Je vais utiliser verbose=True
pour surveiller l'entrée de la mémoire vers la chaîne.
memory = ConversationBufferMemory()
llm = OpenAI(api_key=os.getenv('AI21_API_KEY'))
chain = LLMChain(llm=llm, memory=memory, verbose=True)
Boucle Principale pour la Conversation
Nous pouvons maintenant créer la boucle principale qui va itérer à travers les différentes étapes de notre conversation.
while True:
user_input = input("Vous : ")
response = chain.run(user_input)
print(f"Bot : {response}")
Résultats
Exécutons notre application !
Test de Conversation
Lors du test du chatbot, j'ai effectué une simple conversation pour évaluer les performances de notre programme. Comme démontré, l'historique de la conversation est maintenu et fonctionne correctement au-delà du premier échange !
Cette mise en œuvre est incroyablement facile et rapide, mettant en valeur la puissance de la combinaison d'AI21 et de LangChain pour construire des applications robustes. Je vous encourage à participer à notre Hackathon Plug into AI avec AI21 à venir pour explorer et créer encore plus !
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.