Entendiendo el Modelo YOLOv7: Una Herramienta Poderosa para la Detección de Objetos
YOLOv7 es un algoritmo avanzado de detección de objetos que ha generado una atención significativa debido a su alta precisión y características innovadoras. Operando a velocidades que oscilan entre 5 FPS y 160 FPS, representa la vanguardia de la tecnología de detección de objetos en tiempo real.
¿Por qué Elegir YOLOv7?
Con una impresionante precisión promedio (AP) del 56.8% para aplicaciones en tiempo real a 30 FPS o más en GPU como la V100, YOLOv7 supera a sus competidores y a las iteraciones anteriores del marco YOLO. Está particularmente optimizado para la computación en GPU, lo que hace que la variante YOLOv7-tiny sea una opción ideal para dispositivos móviles y servidores en la periferia.
Características Clave de YOLOv7
- Entrenamiento Económico: Una de las características destacadas de YOLOv7 es su capacidad para entrenar de manera efectiva en conjuntos de datos pequeños, eliminando la necesidad de pesos preentrenados.
- Reconocimiento de la Comunidad: El documento oficial, "YOLOv7: Trainable Bag-of-Freebies Sets New State-of-the-Art for Real-Time Object Detectors", publicado en julio de 2022, ha recibido más de 4.3k estrellas en GitHub dentro de un mes de su lanzamiento, destacando la popularidad del modelo.
Comenzando con YOLOv7
Al final de esta guía, aprenderás cómo volver a entrenar el modelo YOLOv7 con un conjunto de datos personalizado y realizar predicciones simples en tus propias imágenes.
Paso 1: Sube Tu Conjunto de Datos
Tu primera tarea es subir tu conjunto de datos a Google Drive. Esta guía utiliza el Conjunto de Datos BCCD del sitio web Roboflow, pero puedes utilizar cualquier conjunto de datos en formato compatible con YOLO.
Asegúrate de incluir la ruta correcta a tus carpetas de datos en el archivo de configuración. Por ejemplo, un simple archivo data.yaml
podría verse así:
path: ../path/to/data
train: train/images
val: val/images
Paso 2: Crea un Cuaderno
A continuación, ve a Google Colab para crear un nuevo cuaderno. Para mejorar la velocidad de entrenamiento, cambia el tipo de ejecución a GPU navegando a la pestaña 'Runtime' y seleccionando 'Change runtime type' con 'GPU' como el acelerador de hardware.
Paso 3: Preparación del Código
Ahora, conectemos Google Drive, clonemos el repositorio de YOLOv7 e instalemos las dependencias necesarias:
from google.colab import drive
dr = drive.mount('/content/drive')
!git clone https://github.com/WongKinYiu/yolov7.git
%cd yolov7
!pip install -r requirements.txt
Descargar el Modelo YOLOv7:
Para este tutorial, descargaremos el modelo YOLOv7-tiny. Puedes encontrar varios modelos en el repositorio.
Paso 4: ¡Entrena Tu Modelo!
Una vez que el modelo esté configurado, puedes comenzar a entrenar. Ajusta los parámetros según sea necesario y asegúrate de mantener la ruta del modelo y los datos consistente a lo largo de la documentación.
!python train.py --img 640 --batch 16 --epochs 50 --data data.yaml --weights yolov7-tiny.pt
Paso 5: Pruebas de Predicciones
Después del entrenamiento, puedes realizar predicciones usando una imagen del conjunto de validación. Simplemente cambia la ruta en el argumento --source
para probar diferentes imágenes:
!python detect.py --weights runs/train/exp/weights/best.pt --img 640 --conf 0.25 --source valid/images
Monitoreando el Proceso de Entrenamiento
El modelo proporcionará métricas en tiempo real a lo largo del proceso de entrenamiento. Puedes integrar una herramienta de seguimiento de experimentos como Weights & Biases (W&B) para informes detallados.
Conclusión: Abraza el Poder de YOLOv7
Con capacidades mejoradas y facilidad de uso, YOLOv7 es un líder en el desarrollo y despliegue eficiente de aplicaciones de detección de objetos. A medida que la comunidad evoluciona, espera más modelos y aplicaciones innovadoras.
¿Por qué no aplicas tus nuevos conocimientos de YOLOv7 construyendo tu propia aplicación de IA? Mantente atento a tutoriales adicionales que ampliarán tu comprensión y habilidades en este emocionante campo!
Dejar un comentario
Todos los comentarios se revisan antes de su publicación.
Este sitio está protegido por hCaptcha y se aplican la Política de privacidad de hCaptcha y los Términos del servicio.