Comprendre YOLOv7 : La prochaine évolution de la détection d'objets
YOLOv7 révolutionne le domaine de la vision par ordinateur en offrant des capacités de détection d'objets rapides et précises. Fonctionnant dans une plage de vitesse remarquable de 5 FPS à 160 FPS, le modèle brille avec une impressionnante 56,8 % de Précision Moyenne (AP) à 30 FPS ou plus, notamment sur GPU V100. Cette efficacité distingue non seulement YOLOv7 de ses prédécesseurs et des algorithmes concurrents, mais l'établit également comme un choix de premier plan pour les applications en temps réel.
Pourquoi choisir YOLOv7 ?
En tant qu'avancée de pointe dans l'apprentissage automatique, YOLOv7 offre plusieurs raisons convaincantes pour son adoption :
- Abordabilité : YOLOv7 permet l'entraînement sur des ensembles de données modestes sans nécessiter de poids pré-entraînés, le rendant accessible pour les développeurs.
- Polyvalence : La variante YOLOv7-tiny est particulièrement optimisée pour le calcul à la périphérie, permettant un traitement efficace sur des appareils mobiles et des serveurs distribués.
- Croissance Open Source : Le document officiel intitulé "YOLOv7 : Trainable Bag-of-Freebies Sets New State-of-the-Art for Real-Time Object Detectors" a été publié en juillet 2022 et a rapidement attiré l'attention avec 4,3k étoiles sur GitHub en un mois.
Commencer avec YOLOv7
Ce guide vous guidera à travers les étapes nécessaires pour réentraîner le modèle YOLOv7 en utilisant votre ensemble de données personnalisé et effectuer des prédictions sur vos images.
Étape 1 : Téléchargement de votre ensemble de données
Commencez par télécharger votre ensemble de données sur Google Drive. Bien que ce tutoriel démontre l'utilisation de l'ensemble de données BCCD du site Roboflow, n'hésitez pas à utiliser tout ensemble de données qui respecte les exigences de format YOLO. Assurez-vous que la structure de fichiers de votre ensemble de données est correctement configurée dans un fichier nommé data.yaml.
Étape 2 : Configuration de votre environnement
Ensuite, vous allez créer un nouveau carnet dans Google Colab :
- Sélectionnez l'onglet 'Runtime'.
- Cliquez sur 'Change runtime type'.
- Choisissez 'GPU' comme accélérateur matériel, puis confirmez vos modifications.
Étape 3 : Configuration du code
Pour commencer à coder, connectez-vous d'abord à votre Google Drive :
from google.colab import drive
drive.mount('/content/drive')
Ensuite, clonez le dépôt YOLOv7 et installez les dépendances nécessaires :
!git clone https://github.com/WongKinYiu/yolov7.git
%cd yolov7
!pip install -r requirements.txt
Choisissez le modèle YOLOv7 avec lequel vous souhaitez travailler, par exemple, YOLOv7-tiny.
Étape 4 : Formation du modèle
Une fois que vous avez téléchargé votre modèle, initiez l'entraînement. N'hésitez pas à ajuster les paramètres au besoin :
!python train.py --img 640 --batch 16 --epochs 50 --data data.yaml --cfg cfg/training/yolov7-tiny.yaml --weights 'yolov7-tiny.pt'
Surveillez le processus d'entraînement, en notant les indicateurs de performance en temps réel pour évaluation. De plus, intégrer des outils de suivi des expériences comme W&B peut améliorer vos aperçus d'entraînement.
Étape 5 : Faire des prédictions
Après l'entraînement, testez les capacités de prédiction du modèle en utilisant une image de votre ensemble de validation :
!python detect.py --weights yolov7-tiny.pt --source 'path_to_your_image'
Avec seulement 18 minutes d'entraînement, vous pouvez observer les résultats des capacités de YOLOv7 !
Conclusion
YOLOv7 offre une fonctionnalité et des performances supérieures, en faisant un excellent choix pour le développement et le déploiement d'applications efficaces dans des tâches de détection d'objets. Maintenant équipé de votre expertise YOLOv7, envisagez de créer votre propre application d'IA !
Merci de nous avoir rejoints dans ce voyage passionnant avec YOLOv7, et restez à l'écoute pour d'autres tutoriels et aperçus !
Laisser un commentaire
Tous les commentaires sont modérés avant d'être publiés.
Ce site est protégé par hCaptcha, et la Politique de confidentialité et les Conditions de service de hCaptcha s’appliquent.