AI21

Tutoriel AI21 : Mise en œuvre de la mémoire avec LangChain pour des conversations améliorées

AI21 Labs model with LangChain integration tutorial image.

Introduction

Vous avez probablement déjà été exposé à des modèles de AI21 Labs. Je suis très à l'aise pour travailler avec eux, mais l'un des défis a été d'enregistrer manuellement l'historique de mes interactions avec le modèle. Heureusement, LangChain a rendu possible la mise en œuvre de cette opération rapidement et efficacement !

Dans ce tutoriel, je vais expliquer comment mettre en œuvre cette fonctionnalité rapidement, vous permettant d'expérimenter davantage par vous-même.

Mise en œuvre

Dépendances

Tout d'abord, nous devons créer un répertoire de projet, configurer un environnement virtuel et installer quelques dépendances nécessaires. Commençons !

Création d'un Environnement Virtuel

Pour créer un environnement virtuel, vous pouvez utiliser la commande suivante dans votre terminal :

python -m venv myenv

Remplacez myenv par le nom de votre environnement souhaité.

Installation des Dépendances

Une fois votre environnement configuré, vous pouvez installer les dépendances requises en utilisant :

pip install langchain ai21

Cela installera à la fois LangChain et les intégrations de l'API AI21 pour notre projet.

Temps de Codage !

Maintenant, nous pouvons commencer à coder ! Commencez par créer un fichier .env dans votre répertoire de projet pour stocker votre clé API de AI21 Labs Studio. Utilisez AI21_API_KEY comme nom de variable.

Création du Fichier de Code Principal

Ensuite, créez un fichier main.py où nous allons écrire notre code. Pour commencer, importez tous les modules nécessaires et chargez votre clé API :

import os
from langchain.llm import OpenAI
from langchain.memory import ConversationBufferMemory
from langchain.chains import LLMChain

Création du Chatbot

Pour les besoins de ce tutoriel, je vais montrer comment créer un simple chatbot qui fonctionne dans le terminal. Cependant, n'hésitez pas à adapter cette méthode à vos applications uniques !

Tout d'abord, je vais créer un modèle de prompt pour guider le modèle dans la compréhension de notre tâche. Comme je vais utiliser un LLM régulier au lieu d'un modèle de chat, cette étape est essentielle.

Je vais également établir un objet de mémoire qui stockera l'historique de la conversation. Bien que j'aie choisi d'utiliser ConversationBufferMemory, vous pouvez explorer d'autres types de mémoire comme noté dans cet article.

Création de l'LLMChain

Mettons en place le LLMChain qui gérera notre conversation. Je vais utiliser verbose=True pour surveiller l'entrée de la mémoire vers la chaîne.

memory = ConversationBufferMemory()
llm = OpenAI(api_key=os.getenv('AI21_API_KEY'))
chain = LLMChain(llm=llm, memory=memory, verbose=True)

Boucle Principale pour la Conversation

Nous pouvons maintenant créer la boucle principale qui va itérer à travers les différentes étapes de notre conversation.

while True:
    user_input = input("Vous : ")
    response = chain.run(user_input)
    print(f"Bot : {response}")

Résultats

Exécutons notre application !

Test de Conversation

Lors du test du chatbot, j'ai effectué une simple conversation pour évaluer les performances de notre programme. Comme démontré, l'historique de la conversation est maintenu et fonctionne correctement au-delà du premier échange !

Cette mise en œuvre est incroyablement facile et rapide, mettant en valeur la puissance de la combinaison d'AI21 et de LangChain pour construire des applications robustes. Je vous encourage à participer à notre Hackathon Plug into AI avec AI21 à venir pour explorer et créer encore plus !

En lire plus

Illustration of BabyAGI's functionality in task management system.
Cohere Tutorial on Text Classification using Natural Language Processing techniques.

Laisser un commentaire

Tous les commentaires sont modérés avant d'être publiés.

Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.