Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Segmenter des images et des vidéos en Python à l'aide de Segment Anything Model (SAM) | YOLOv5 | YOLOv8 et SAM
Segmenter des images et des vidéos en Python à l'aide de Segment Anything Model (SAM) | YOLOv5 | YOLOv8 et SAM
Cette vidéo présente le Segment Anything Model (SAM), un modèle d'IA capable d'identifier et d'extraire des objets d'images et de vidéos pour diverses tâches. Le SAM est formé sur un énorme ensemble de données de 11 milliards d'images et 1,1 milliard de masques et a de fortes performances dans une variété de tâches de segmentation. La vidéo fournit des instructions étape par étape pour utiliser le SAM sur un système local, y compris comment installer les packages nécessaires, télécharger des points de contrôle de modèle pré-formés et effectuer une segmentation sur des images et des vidéos à l'aide de Python. La vidéo montre également comment utiliser le SAM avec YOLOv5 ou YOLOv8 pour créer des cadres de délimitation autour des objets d'intérêt. Le SAM a également des applications potentielles dans l'animation.
Cours YOLOv8 - Application Web de détection d'objets en temps réel utilisant YOLOv8 et Flask - Webcam/caméra IP
Cours YOLOv8 - Application Web de détection d'objets en temps réel utilisant YOLOv8 et Flask - Webcam/caméra IP
Le cours YOLOv8 est une série de didacticiels qui guident les spectateurs dans la création d'une application Web de détection d'objets en temps réel à l'aide de YOLOv8 et Flask. Les didacticiels couvrent l'installation des logiciels nécessaires tels que Python et PyCharm, la création d'un environnement virtuel, l'installation de packages et le test de la détection d'objets sur les images et les webcams. Les didacticiels couvrent également la conversion de la sortie des tenseurs en nombres entiers, l'étiquetage des objets détectés et l'enregistrement de la vidéo de sortie avec les détections. Les téléspectateurs apprennent à intégrer YOLOv8 à Flask et à exécuter l'application Web de détection d'objets en temps réel sur les flux vidéo et webcam en direct.
Dans la deuxième partie de la vidéo, le présentateur montre comment créer une application Web à l'aide de Flask et YOLOv8 pour la détection d'objets sur les flux et vidéos de webcam en direct, en plus de présenter la formation et l'inférence d'un modèle personnalisé pour la détection des équipements de protection individuelle. L'application Web a une page d'accueil, une page vidéo et une page de flux de webcam en direct, avec un style CSS pour chaque page, et le présentateur parcourt les fichiers HTML et Flask utilisés pour le projet. La vidéo montre le processus d'importation d'un ensemble de données, sa préparation pour la formation du modèle YOLOv8, la formation du modèle, l'analyse des résultats et le test du modèle sur des vidéos de démonstration. Dans l'ensemble, la vidéo fournit un didacticiel complet pour développer et tester une application Web de détection d'objets en temps réel.
Le présentateur discute également des modifications apportées à une application Web qui utilise le modèle YOLOv8 formé sur un ensemble de données d'équipement de protection individuelle (EPI). Les modifications incluent la modification du code pour attribuer différentes couleurs aux cadres de délimitation et aux rectangles d'étiquettes en fonction des noms de classe et la définition d'un score de confiance supérieur à 0,5 pour que les cadres de délimitation et les rectangles apparaissent. Le présentateur démontre la détection réussie d'éléments d'EPI dans une vidéo et un flux de webcam en direct, marquant la fin du cours.
Suivi d'objets en temps réel à l'aide de YOLOv8 et DeepSORT | Comptage des véhicules (véhicules entrant et sortant)
Suivi d'objets en temps réel à l'aide de YOLOv8 et DeepSORT | Comptage des véhicules (véhicules entrant et sortant)
La vidéo montre la mise en œuvre du suivi d'objets en temps réel à l'aide de YOLOv8 et DeepSORT pour compter le nombre de véhicules entrant et sortant d'une autoroute. Le présentateur fournit un guide étape par étape, en commençant par le clonage du référentiel GitHub, l'installation des packages requis, la définition du répertoire et l'examen du script de suivi. Le didacticiel couvre l'utilisation de files d'attente doubles, le prétraitement, la régression non maximale et la fonction Deep SORT pour générer des ID uniques et déterminer les noms de classe. Le présentateur explique également comment ajouter une fonction de comptage de véhicules en utilisant une ligne à l'écran, et chaque fois que la piste d'un véhicule croise cette ligne, le nombre augmente. L'interface utilisateur est définie à l'aide d'une fonction spécifique. Enfin, le présentateur montre comment la sortie actuelle du script peut détecter les intersections avec la ligne et compter les véhicules entrant et sortant de la zone.
Segmentation et suivi d'objets en temps réel à l'aide de YOLOv8 | Comptage des véhicules (entrée et sortie)
Segmentation et suivi d'objets en temps réel à l'aide de YOLOv8 | Comptage des véhicules (entrée et sortie)
Ce didacticiel vidéo se concentre sur la mise en œuvre de la segmentation et du suivi des objets en temps réel à l'aide de YOLOv8 et de l'algorithme de tri approfondi. Plus précisément, il montre comment compter et distinguer les différents sous-types de véhicules entrant et sortant d'une zone donnée. Le didacticiel couvre divers aspects, notamment l'estimation de la vitesse, la mesure de la direction, ainsi que la segmentation et le suivi précis de chaque véhicule avec son ID et ses traces. Le présentateur fournit également les étapes nécessaires pour l'implémenter sur divers IDE et propose le code final à ses partisans Patreon.
Suivi d'objets avec YOLOv8 : suivi des véhicules, comptage (entrée et sortie) et estimation de la vitesse
Suivi d'objets avec YOLOv8 : suivi des véhicules, comptage (entrée et sortie) et estimation de la vitesse
Le didacticiel vidéo décrit comment mettre en œuvre le suivi d'objets, le comptage de véhicules et l'estimation de la vitesse à l'aide de YOLOv8 et DeepSORT. Le présentateur partage un lien vers le référentiel GitHub contenant le code et parcourt le processus de clonage du référentiel, de téléchargement des fichiers DeepSORT, d'importation des bibliothèques pertinentes et de définition d'une liste DQ de données pour suivre les objets. Ils expliquent également comment déterminer la direction du véhicule et augmenter le nombre en conséquence. De plus, le présentateur montre comment estimer la vitesse des véhicules en mettant en œuvre la formule de distance euclidienne basée sur les coordonnées X et Y des objets suivis, et configure un espace pour l'affichage du comptage. En fin de compte, la sortie du script affiche le nombre et la vitesse des objets, indiquant ainsi que la mise en œuvre a réussi.
Reconnaissance automatique des plaques d'immatriculation à l'aide de YOLOV8 et EasyOCR (images et vidéos)
Reconnaissance automatique des plaques d'immatriculation à l'aide de YOLOV8 et EasyOCR (images et vidéos)
Dans cette vidéo YouTube, le présentateur explique comment mettre en œuvre la reconnaissance automatique des plaques d'immatriculation à l'aide de YOLOV8 et EasyOCR. Ils guident les téléspectateurs tout au long du processus de mise en œuvre à l'aide d'un bloc-notes Google Colab et d'un référentiel GitHub, fournissant des instructions étape par étape et expliquant comment installer les dépendances et télécharger l'ensemble de données nécessaire. Le présentateur démontre le taux de réussite du modèle et le processus de validation, et explique également comment utiliser EasyOCR pour lire les numéros de plaque d'immatriculation. Ils parcourent les dernières étapes de l'exécution du script et rencontrent des erreurs qu'ils corrigent, ce qui donne des résultats impressionnants. Bien que le script de reconnaissance de la plaque d'immatriculation ne soit fourni que sur le référentiel GitHub du présentateur pour les supporters de Patreon, les téléspectateurs peuvent en savoir plus sur les modifications apportées au fichier predict.py pour des résultats similaires.
Détection et suivi d'objets en temps réel à l'aide de YOLOv8 sur un jeu de données personnalisé : tutoriel complet
Détection et suivi d'objets en temps réel à l'aide de YOLOv8 sur un jeu de données personnalisé : tutoriel complet
Dans ce didacticiel vidéo, le présentateur présente un ensemble de données personnalisé contenant des images de voitures, de camions, de motos, de camionnettes, d'avions et de camping-cars, qui est utilisé pour démontrer la mise en œuvre de YOLOv8 avec détection et suivi. Ils expliquent l'importance d'un ensemble de données équilibré et fournissent des instructions étape par étape pour naviguer dans le référentiel GitHub, configurer l'environnement requis et mettre en œuvre le suivi des objets à l'aide de l'algorithme de tri approfondi. Le présentateur discute également de la matrice de confusion et de l'importance des pertes de formation et de validation tout en testant la précision du modèle en exécutant l'inférence avec une vidéo de démonstration téléchargée depuis Google Drive. Ils concluent en partageant le fichier du cahier de collaboration pour les personnes intéressées.
Segmentation et suivi d'objets en temps réel à l'aide de YOLOv8 sur un jeu de données personnalisé : tutoriel complet
Segmentation et suivi d'objets en temps réel à l'aide de YOLOv8 sur un jeu de données personnalisé : tutoriel complet
Ce didacticiel vidéo est un guide complet sur l'utilisation de YOLOv8 pour la segmentation et le suivi d'objets en temps réel sur des ensembles de données personnalisés. Le didacticiel passe par l'ensemble du processus, y compris l'importation d'ensembles de données, la formation de modèles personnalisés à l'aide des algorithmes YOLOv8 et Deep Sort, et le test des modèles sur des vidéos de démonstration. Le conférencier fournit le code et les bibliothèques nécessaires à la mise en œuvre et présente les résultats des prédictions du modèle. Ils expliquent également la matrice de confusion et fournissent des liens pour accéder aux vidéos de sortie et aux fichiers polaires sur GitHub. Dans l'ensemble, ce didacticiel est une excellente ressource pour tous ceux qui souhaitent en savoir plus sur la segmentation et le suivi d'objets à l'aide de YOLOv8.
Détection des panneaux de signalisation et des feux de circulation et reconnaissance des couleurs à l'aide de YOLOv8
Détection des panneaux de signalisation et des feux de circulation et reconnaissance des couleurs à l'aide de YOLOv8
Ce didacticiel YouTube présente l'utilisation de YOLOv8 pour la détection des panneaux de signalisation et la reconnaissance des couleurs. Le présentateur présente le jeu de données, qui contient 17 classes différentes de panneaux routiers avec une distribution équilibrée des images. Le modèle YOLOv8 est formé et affiné sur 100 époques, ce qui donne de bons scores moyens de précision moyenne pour iou50 et ioub50. Le présentateur montre comment interpréter la matrice de confusion et valider le modèle sur l'ensemble de données de validation. Le modèle est ensuite testé sur deux vidéos de démonstration, toutes deux montrant des résultats de détection précis. Dans l'ensemble, YOLOv8 fonctionne bien pour détecter les panneaux de signalisation et les feux de circulation.
Détection et segmentation des nids-de-poule à l'aide de YOLOv8 (images et vidéos) | Ensemble de données personnalisé | Guide complet
Détection et segmentation des nids-de-poule à l'aide de YOLOv8 (images et vidéos) | Ensemble de données personnalisé | Guide complet
Cette vidéo montre comment créer un jeu de données personnalisé pour la détection et la segmentation des nids-de-poule à l'aide de YOLOv8. Le présentateur montre les étapes de clonage et d'annotation des données d'image et recommande d'utiliser Google Collab pour former le modèle. Les dépendances nécessaires pour YOLOv8 sont également abordées, ainsi que la configuration de l'emplacement de l'ensemble de données et la formation du modèle. Le modèle a atteint une précision moyenne moyenne de 0,532 pour la détection et de 0,531 pour la segmentation, et a bien performé dans la détection des nids-de-poule dans les vidéos. Le présentateur conclut la vidéo après avoir validé le modèle personnalisé et obtenu de bons résultats.