Einführung
Sie sind wahrscheinlich bereits mit Modellen von AI21 Labs in Berührung gekommen. Ich fühle mich sehr wohl im Umgang mit ihnen, aber eine der Herausforderungen bestand darin, die Geschichte meiner Interaktion mit dem Modell manuell aufzuzeichnen. Glücklicherweise hat LangChain es ermöglicht, diesen Vorgang schnell und effizient umzusetzen!
In diesem Tutorial werde ich erklären, wie man diese Funktion schnell implementiert, sodass Sie weiter experimentieren können.
Implementierung
Abhängigkeiten
Zuerst müssen wir ein Projektverzeichnis erstellen, eine virtuelle Umgebung einrichten und einige notwendige Abhängigkeiten installieren. Lassen Sie uns anfangen!
Erstellen einer virtuellen Umgebung
Um eine virtuelle Umgebung zu erstellen, können Sie den folgenden Befehl in Ihrem Terminal verwenden:
python -m venv myenv
Ersetzen Sie myenv
durch den gewünschten Namen Ihrer Umgebung.
Installieren von Abhängigkeiten
Sobald Ihre Umgebung eingerichtet ist, können Sie die erforderlichen Abhängigkeiten mit folgendem Befehl installieren:
pip install langchain ai21
Dies installiert sowohl LangChain als auch die AI21 API-Integrationen für unser Projekt.
Coding-Zeit!
Jetzt können wir mit dem Programmieren beginnen! Erstellen Sie zunächst eine .env
Datei in Ihrem Projektverzeichnis, um Ihren API-Schlüssel von AI21 Labs Studio zu speichern. Verwenden Sie AI21_API_KEY
als Variablennamen.
Erstellen der Hauptcode-Datei
Als nächstes erstellen Sie eine main.py
Datei, in der wir unseren Code schreiben werden. Um zu beginnen, importieren Sie alle notwendigen Module und laden Sie Ihren API-Schlüssel:
import os
from langchain.llm import OpenAI
from langchain.memory import ConversationBufferMemory
from langchain.chains import LLMChain
Erstellen des Chatbots
Für dieses Tutorial werde ich zeigen, wie man einen einfachen Chatbot erstellt, der im Terminal läuft. Fühlen Sie sich jedoch frei, diesen Ansatz für Ihre eigenen Anwendungen anzupassen!
Zuerst werde ich eine Eingabeaufforderungsvorlage erstellen, um das Modell besser bei der Verständnis unserer Aufgabe zu unterstützen. Da ich ein reguläres LLM anstelle eines Chat-Modells verwenden werde, ist dieser Schritt unerlässlich.
Ich werde auch ein Speicherobjekt einrichten, das die Gesprächshistorie speichert. Während ich mich für ConversationBufferMemory entschieden habe, können Sie andere Arten von Speicher erkunden, wie in diesem Artikel erwähnt.
Erstellen der LLMChain
Lassen Sie uns die LLMChain einrichten, die unser Gespräch abwickeln wird. Ich werde verbose=True
verwenden, um den Input aus dem Speicher zur Kette zu überwachen.
memory = ConversationBufferMemory()
llm = OpenAI(api_key=os.getenv('AI21_API_KEY'))
chain = LLMChain(llm=llm, memory=memory, verbose=True)
Hauptschleife für das Gespräch
Jetzt können wir die Hauptschleife erstellen, die die verschiedenen Phasen unseres Gesprächs durchläuft.
while True:
user_input = input("Sie: ")
response = chain.run(user_input)
print(f"Bot: {response}")
Ergebnisse
Lassen Sie uns unsere Anwendung ausführen!
Unterhaltungstest
Beim Testen des Chatbots führte ich ein einfaches Gespräch, um die Leistung unseres Programms zu bewerten. Wie gezeigt, wird die Gesprächshistorie beibehalten und funktioniert über den ersten Austausch hinaus korrekt!
Diese Implementierung ist unglaublich einfach und schnell und zeigt die Kraft der Kombination von AI21 und LangChain zur Erstellung robuster Anwendungen. Ich ermutige Sie, an unserem bevorstehenden Plug into AI with AI21 Hackathon teilzunehmen, um noch mehr zu erkunden und zu erstellen!
Hinterlasse einen Kommentar
Alle Kommentare werden vor der Veröffentlichung geprüft.
Diese Website ist durch hCaptcha geschützt und es gelten die allgemeinen Geschäftsbedingungen und Datenschutzbestimmungen von hCaptcha.