Tutoriel : Qu'est-ce que l'IA Générative et comment peut-elle être appliquée ?
L'IA générative, une technologie de pointe, fait référence à des modèles d'apprentissage profond capables de produire du contenu de haute qualité allant du texte aux images. Un type significatif d'IA générative est le Modèle de Langage de Grande Taille (LLM), connu pour ses capacités de compréhension et de génération à usage général.
Dans ce tutoriel, nous allons explorer comment tirer parti de l'ingénierie des invites avec les LLM pour obtenir des réponses précises, pertinentes et contextuellement riches, spécifiquement liées aux informations de voyage sur divers pays.
Étape 1 : Démarrage
Ouvrez Watsonx.ai Prompt Lab et sélectionnez l'option Mode libre. Vous verrez l'éditeur d'invites au centre, accompagné des paramètres du modèle sur le côté droit pour optimiser les réponses. Un résumé des tokens apparaît dans le coin inférieur gauche, indiquant le nombre de tokens utilisés lors de l'exécution.
Notez que les modèles sont des modèles de base hébergés sur IBM Cloud, permettant l'inférence et l'interaction avec le modèle.
Étape 2 : Invite initiale
Commencez par entrer une invite simple. Par exemple :
Modèle : flan-t5-xxl-11b
Texte de l'invite : Je pense à voyager en Thaïlande.
La sortie peut ne pas fournir d'informations utiles, similaire à poser une question vague avec des réponses larges. Maintenant, nous allons affiner l'invite pour recueillir des données plus spécifiques.
Étape 3 : Affiner l'invite
Pour obtenir de meilleurs résultats, rendez l'invite plus directe :
Texte de l'invite : Je pense à voyager en Thaïlande. Parle-moi de la Thaïlande.
Cette version produit une réponse plus pertinente mais peut se terminer brusquement en raison des contraintes du paramètre Max tokens. Augmentez le nombre maximum de tokens pour améliorer cela.
Étape 4 : Ajuster les paramètres du modèle
Augmentez le Max tokens à 200 :
Modèle : flan-t5-xxl-11b
Texte de l'invite : Je pense à voyager en Thaïlande. Parle-moi de la Thaïlande.
Cela permettra d'avoir une réponse complète. Si le modèle renvoie constamment la même réponse, changez le mode de décodage en Échantillonnage au lieu de Décodage avide pour générer des sorties variées.
Étape 5 : Informations ciblées
Pour adapter les réponses aux intérêts des utilisateurs, affinez encore l'invite :
Texte de l'invite : Je pense à voyager en Thaïlande. J'aime les sports nautiques et la nourriture. Parle-moi de la Thaïlande.
Si les informations restent limitées, envisagez d'explorer des modèles alternatifs.
Étape 6 : Explorer d'autres modèles
Watsonx.ai fournit des fiches de modèle avec des détails complets sur divers modèles. Accédez-y en cliquant sur le menu déroulant près du nom du modèle :
- Informations sur le fournisseur et la source
- Tâches les mieux adaptées au modèle
- Comment ajuster le modèle
- Articles de recherche
- Biais, risques et limitations
Envisagez de sélectionner le modèle llama-2-70b-chat, qui est optimisé pour les cas d'utilisation de dialogue.
Étape 7 : Tester un nouveau modèle
Avec le nouveau modèle sélectionné, relancez l'invite précédente :
Texte de l'invite : Je pense à voyager en Thaïlande. J'aime les sports nautiques et la nourriture. Parle-moi de la Thaïlande.
Assurez-vous de surveiller la longueur de la sortie et d'éviter de dépasser à nouveau la limite de Max tokens.
Étape 8 : Ajouter des limites aux réponses
Ajoutez des contraintes directement à l'invite pour des résultats plus ciblés :
Texte de l'invite : Je pense à voyager en Thaïlande. J'aime les sports nautiques et la nourriture. Donne-moi 5 phrases sur la Thaïlande.
Ces modifications permettront d'obtenir des résultats adaptés et informatifs tout en respectant votre budget de tokens.
Conclusion et prochaines étapes
L'ajustement des invites est une alternative pratique à la formation de nouveaux modèles pour des besoins spécifiques. Ce tutoriel a illustré la nature itérative de l'ingénierie des invites, soulignant l'importance du contexte et des requêtes ciblées.
En guise de dernière note, toutes les interactions avec les modèles se font via IBM Cloud. Pour des détails techniques concernant les appels API, consultez la sortie en sélectionnant Voir le code dans le laboratoire des invites.
Pour un apprentissage supplémentaire, envisagez d'expérimenter avec différentes invites et paramètres pour découvrir des réponses génératives nuancées et centrées sur l'utilisateur !
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.