generative AI

Umfassender Leitfaden zu IBM Watsonx.ai: Erkundung der generativen KI

Screenshot from IBM Watsonx.ai showing prompt lab interface

Tutorial: Was ist Generative AI und wie kann es angewendet werden?

Generative AI, eine moderne Technologie, bezieht sich auf Deep-Learning-Modelle, die in der Lage sind, qualitativ hochwertige Inhalte von Text bis zu Bildern zu produzieren. Eine bedeutende Art von generativer KI ist das Large Language Model (LLM), das für sein allgemeines Verständnis und seine Generierungsfähigkeiten bekannt ist.

In diesem Tutorial werden wir erforschen, wie man Prompt-Engineering mit LLMs nutzen kann, um genaue, relevante und kontextuell reiche Antworten zu erhalten, die speziell mit Reiseinformationen über verschiedene Länder verbunden sind.

Schritt 1: Erste Schritte

Öffnen Sie Watsonx.ai Prompt Lab und wählen Sie die Option Freeform mode. Sie sehen den Eingabebereich in der Mitte, daneben die Modellparameter auf der rechten Seite zur Optimierung der Antworten. Eine Token-Zusammenfassung wird in der unteren linken Ecke angezeigt und gibt an, wie viele Tokens während der Ausführung verwendet wurden.

Beachten Sie, dass die Modelle Foundation-Modelle sind, die auf IBM Cloud gehostet werden und die Modellinferenz und Interaktion ermöglichen.

Schritt 2: Erster Prompt

Beginnen Sie, indem Sie einen einfachen Prompt eingeben. Zum Beispiel:

Model: flan-t5-xxl-11b
Prompt text: Ich denke daran, nach Thailand zu reisen.

Die Ausgabe liefert möglicherweise keine nützlichen Informationen, ähnlich wie das Stellen einer vagen Frage mit breiten Antworten. Jetzt werden wir den Prompt verfeinern, um spezifischere Daten zu sammeln.

Schritt 3: Verfeinerung des Prompts

Um bessere Ergebnisse zu erzielen, machen Sie den Prompt direkter:

Prompt text: Ich denke daran, nach Thailand zu reisen. Erzählen Sie mir etwas über Thailand.

Diese Version produziert eine relevantere Antwort, könnte aber aufgrund der Einschränkungen des Max tokens Parameters abrupt enden. Erhöhen Sie die maximalen Tokens, um dies zu verbessern.

Schritt 4: Anpassung der Modellparameter

Erhöhen Sie die Max tokens auf 200:

Model: flan-t5-xxl-11b
Prompt text: Ich denke daran, nach Thailand zu reisen. Erzählen Sie mir etwas über Thailand.

Dies ermöglicht eine vollständige Antwort. Wenn das Modell konsequent dieselbe Antwort zurückgibt, wechseln Sie den Dekodierungsmodus zu Sampling anstelle von Greedy Decoding, um variierte Ausgaben zu generieren.

Schritt 5: Zielgerichtete Informationen

Um die Antworten auf die Interessen der Benutzer zuzuschneiden, verfeinern Sie den Prompt weiter:

Prompt text: Ich denke daran, nach Thailand zu reisen. Ich mag Wassersport und Essen. Erzählen Sie mir etwas über Thailand.

Wenn die Informationen weiterhin begrenzt sind, ziehen Sie in Betracht, alternative Modelle zu erkunden.

Schritt 6: Erforschen anderer Modelle

Watsonx.ai bietet Modellkarten mit umfassenden Details zu verschiedenen Modellen. Greifen Sie darauf zu, indem Sie auf das Dropdown-Menü neben dem Modellnamen klicken:

  • Informationen zum Anbieter und zur Quelle
  • Am besten geeignete Aufgaben für das Modell
  • Wie man das Modell anpasst
  • Forschungsarbeiten
  • Vorurteile, Risiken und Einschränkungen

Erwägen Sie die Auswahl des llama-2-70b-chat Modells, das für Dialoganwendungen optimiert ist.

Schritt 7: Testen eines neuen Modells

Nachdem das neue Modell ausgewählt wurde, führen Sie den vorherigen Prompt erneut aus:

Prompt text: Ich denke daran, nach Thailand zu reisen. Ich mag Wassersport und Essen. Erzählen Sie mir etwas über Thailand.

Stellen Sie sicher, dass Sie die Ausgabelänge überwachen und vermeiden, erneut die Grenze von Max tokens zu erreichen.

Schritt 8: Hinzufügen von Grenzen zu den Antworten

Fügen Sie dem Prompt direkt Einschränkungen hinzu, um gezieltere Ergebnisse zu erzielen:

Prompt text: Ich denke daran, nach Thailand zu reisen. Ich mag Wassersport und Essen. Geben Sie mir 5 Sätze über Thailand.

Diese Änderungen führen zu maßgeschneiderten, informativen Ergebnissen, während sie innerhalb Ihres Token-Budgets bleiben.

Fazit und nächste Schritte

Das Abstimmen von Prompts ist eine praktische Alternative zur Schulung neuer Modelle für spezifische Bedürfnisse. Dieses Tutorial veranschaulicht die iterative Natur des Prompt-Engineerings und betont die Bedeutung von Kontext und gezielten Abfragen.

Als abschließende Anmerkung finden alle Modellinteraktionen über die IBM Cloud statt. Für technische Details zu den API-Aufrufen überprüfen Sie die Ausgabe, indem Sie View code im Prompt-Labor auswählen.

Für weiteres Lernen ziehen Sie in Betracht, mit verschiedenen Prompts und Parametern zu experimentieren, um nuancierte, benutzerfokussierte generative Antworten zu entdecken!

Weiterlesen

Fine-tuning TinyLLaMA with Unsloth on Google Colab using GPU.
Visual guide to efficient AI model training with original and fine-tuned models comparison.

Hinterlasse einen Kommentar

Alle Kommentare werden vor der Veröffentlichung geprüft.

Diese Website ist durch hCaptcha geschützt und es gelten die allgemeinen Geschäftsbedingungen und Datenschutzbestimmungen von hCaptcha.