Apprendre ONNX pour le trading - page 10

 

Tutoriel de détection d'objets Raspberry Pi



Tutoriel de détection d'objets Raspberry Pi

Dans ce didacticiel de détection d'objets Raspberry Pi, le présentateur montre comment installer Tensorflow Lite sur un Raspberry Pi et l'utiliser pour la classification d'images avec une démonstration de classification en temps réel incluse. Ils expliquent également ce qu'est lib atlas, un composant crucial de l'apprentissage automatique pour l'algèbre linéaire, et comment corriger les erreurs associées sur un Raspberry Pi. Le présentateur note qu'un accélérateur Coral USB peut être utilisé pour augmenter la vitesse du projet mais n'est pas obligatoire. Dans l'ensemble, le présentateur met l'accent sur la flexibilité du script pour s'adapter à différents cas d'utilisation ou modèles.

  • 00:00:00 Dans cette section de la vidéo, le présentateur fournit un tutoriel pour installer Tensorflow Lite sur un Raspberry Pi et l'utiliser pour la classification des images. Le présentateur utilise la bibliothèque d'exemples de Tensorflow et note qu'un accélérateur Coral USB peut être utilisé pour augmenter la vitesse du projet, bien que ce ne soit pas obligatoire. Pour commencer, le présentateur met à jour le Raspberry Pi et crée un environnement virtuel. Le présentateur montre comment activer l'environnement et installer les packages nécessaires avant d'installer le runtime Tensorflow Lite. Enfin, le présentateur vérifie la version pour s'assurer que tout est correctement installé.

  • 00:05:00 Dans cette section, l'orateur exécute un exemple de détection d'objet sur un Raspberry Pi, mais rencontre une erreur liée à lib atlas. Ils expliquent que lib atlas est crucial pour l'algèbre linéaire, qui est un élément important de l'apprentissage automatique. Ils montrent comment ils ont résolu le problème en exécutant sudo apt-get install lib atlas bass dash dev. L'orateur fait ensuite une démonstration de la classification en temps réel à l'aide du Raspberry Pi et souligne que le script peut être modifié pour s'adapter à différents cas d'utilisation ou modèles.
 

Détection d'objet OpenCV Python | Facile et Rapide (2020)



Détection d'objet OpenCV Python | Facile et Rapide (2020)

Dans ce didacticiel vidéo intitulé "Object Detection OpenCV Python | Easy and Fast (2020)", le présentateur montre comment créer un détecteur d'objets à l'aide de la bibliothèque OpenCV en Python. La vidéo se concentre sur la création d'un détecteur avec un équilibre entre précision et vitesse qui peut détecter plusieurs objets couramment trouvés en temps réel. Le modèle MobileNet SSD est utilisé pour la détection d'objets en raison de sa vitesse et de sa précision, et l'ensemble de données coco est utilisé pour détecter des classes telles que personne, vélo et voiture. La vidéo montre comment parcourir diverses variables à l'aide de la fonction zip pour créer un rectangle autour de l'objet détecté et comment modifier le code pour exécuter la détection d'objet sur un flux de webcam. Le présentateur explique également comment ajuster la valeur de seuil et ajouter des valeurs de confiance aux objets détectés pour comprendre la probabilité de chaque objet.

  • 00:00:00 Dans cette section de la vidéo, le créateur explique comment créer un détecteur d'objets avec un bon équilibre entre précision et vitesse. Le détecteur peut s'exécuter en temps réel tout en détectant plusieurs objets communs et ne nécessite aucune bibliothèque tierce pour s'exécuter autre qu'OpenCV. La vidéo passe en revue les codes de création d'un détecteur d'objets et explique en détail l'utilisation du SSD MobileNet, qui offre un bon équilibre entre précision et vitesse, et peut fonctionner sur un processeur presque en temps réel, ce qui en fait un excellent choix pour détection d'objets courants. Enfin, opencv-python est la seule bibliothèque nécessaire pour exécuter le détecteur, et l'ensemble de données coco est utilisé pour détecter des classes telles que personne, vélo et voiture.

  • 00:05:00 Dans cette section du didacticiel vidéo, le présentateur montre comment afficher une image à l'aide de la bibliothèque OpenCV en Python. Ils importent des noms d'objets à partir de l'ensemble de données coco à l'aide de la fonction with open et les lisent sous forme de tableau. Ils importent ensuite les fichiers de configuration et les pondérations et utilisent la fonction OpenCV pour créer le modèle. Contrairement au didacticiel vidéo YOLO, où des techniques ont dû être appliquées pour extraire la boîte englobante, la fonction effectue tout le traitement pour nous, et tout ce que nous avons à faire est de passer l'image, et elle affichera la boîte englobante et les noms d'identification.

  • 00:10:00 Dans cette section, le didacticiel vidéo explique comment effectuer la détection d'objets à l'aide d'OpenCV et de Python. Après avoir configuré le modèle de détection, le code envoie l'image d'entrée au modèle et renvoie les ID de classe, les niveaux de confiance et les cadres de délimitation. Le didacticiel se concentre sur la mise en place d'un détecteur d'objets aussi rapidement et facilement que possible, sans installations ni formalités importantes. Le code peut être utilisé pour diverses applications telles que les voitures autonomes ou les appareils robotiques. Le didacticiel aborde également l'importance des identifiants de classe et l'importance de soustraire un de leurs valeurs en se référant aux noms de classe.

  • 00:15:00 Dans cette section, l'instructeur explique comment parcourir trois variables ou informations différentes à l'aide de la fonction zip. Ils utilisent zip pour aplatir les variables de confiance et de boîte englobante, puis utilisent une boucle for pour créer un rectangle autour de l'objet détecté. Ils écrivent également le nom de l'objet détecté à l'aide de la fonction putText et utilisent la variable de noms de classe pour soustraire un de l'identifiant de classe pour obtenir le nom approprié. L'instructeur ajoute d'autres paramètres pour rendre l'étiquette plus visible et modifie même le texte pour qu'il soit entièrement en majuscules. Enfin, ils réussissent à détecter une personne dans l'image.

  • 00:20:00 Dans cette section, le didacticiel montre comment modifier le code pour exécuter la détection d'objets sur un flux de webcam au lieu d'images statiques. Le code utilise "cv2.videoCapture" pour initialiser la webcam et définir les paramètres de taille d'image. La boucle while est utilisée pour capturer et afficher en permanence le flux de la webcam, et une condition est ajoutée pour vérifier si un objet a été détecté avant de l'afficher. Le système détecte avec précision des objets tels qu'un clavier, un moniteur, un téléphone portable et une souris en temps réel à l'aide du flux de la webcam.

  • 00:25:00 Dans cette section, l'auteur explique que l'algorithme de détection d'objets peut détecter des objets avec une bonne vitesse et précision, même si ce n'est peut-être pas la meilleure précision. La vidéo montre ensuite comment modifier la valeur de seuil et ajouter des valeurs de confiance aux objets détectés. Le YouTuber exécute ensuite le programme et montre comment les valeurs de confiance sont affichées pour les objets détectés, qui sont suffisamment visibles et clairs pour comprendre la probabilité de chaque objet.
 

Comment installer TensorFlow 2 et OpenCV sur un Raspberry Pi



Comment installer TensorFlow 2 et OpenCV sur un Raspberry Pi

Cette vidéo fournit un guide étape par étape sur la façon d'installer TensorFlow 2 et OpenCV sur un Raspberry Pi. Le présentateur souligne l'importance d'avoir un Pi plus récent, en particulier un Pi 4 64 bits, et fournit des instructions sur la façon d'installer Raspberry Pi OS, de mettre à jour et de mettre à niveau le système, et de sélectionner le script shell TensorFlow approprié pour son système. La vidéo explique également comment changer la version Python en 3.7 pour ceux qui rencontrent des problèmes d'installation et fournit des instructions détaillées sur l'installation d'environnements virtuels, de packages système, de TensorFlow et d'OpenCV. Tout au long de la vidéo, le présentateur fournit des conseils utiles et des solutions aux erreurs potentielles. La vidéo se termine en testant l'installation d'OpenCV et de TensorFlow à l'aide de commandes d'importation et encourage les téléspectateurs à laisser des commentaires ou des demandes.

  • 00:00:00 Dans cette section de la vidéo, le présentateur explique comment configurer un Raspberry Pi pour une installation tout-en-un de TensorFlow et OpenCV, en commençant par l'importance d'avoir un Pi plus récent, en particulier un Pi 4 qui est 64 bits. La vidéo couvre le processus d'installation du système d'exploitation Raspberry Pi et la configuration d'un nom d'hôte, d'un nom d'utilisateur, d'un mot de passe et de configurations Wi-Fi à l'aide de l'imageur Raspberry Pi. Après avoir démarré le Pi, le présentateur demande aux téléspectateurs de mettre à jour et de mettre à niveau avant de vérifier leur version Python et la sortie "uname -m", qui sont importantes pour sélectionner le script shell TensorFlow approprié pour leur système. Le présentateur dirige également les téléspectateurs vers des scripts shell et des fichiers de roue hébergés en privé qui peuvent faire fonctionner TensorFlow avec le Raspberry Pi.

  • 00:05:00 Dans cette section de la vidéo, le présentateur explique comment changer votre version Python en 3.7 pour ceux qui rencontrent des problèmes lors de l'installation de TensorFlow 2 et OpenCV sur un Raspberry Pi. Pour ce faire, les spectateurs doivent utiliser pi m et installer la version Python requise. Le présentateur montre comment installer pi m, ajouter des lignes au fichier dot bash rc, installer les packages système et mettre à jour pi m. Le présentateur explique ensuite comment installer Python version 3.7.12 et créer un répertoire de projet. Enfin, le présentateur montre aux téléspectateurs comment fonctionne pi m et vérifie la version Python.

  • 00:10:00 Dans cette section, l'orateur explique comment installer TensorFlow 2 et OpenCV sur un Raspberry Pi. L'orateur suggère d'utiliser Python3.9 ou Python3.7 avec la commande de coque de roue TensorFlow appropriée. Ils expliquent comment installer un package d'environnement virtuel et créer un environnement dans lequel travailler. Le conférencier explique ensuite comment installer les packages système et TensorFlow. Un test simple est fourni pour déterminer si l'installation est réussie. L'orateur discute également d'une erreur que les utilisateurs peuvent rencontrer et présente la solution au problème.

  • 00:15:00 Dans cette section, l'orateur fournit des instructions pour installer OpenCV sur Raspberry Pi. Pour les utilisateurs de Raspberry Pi 3, il recommande de suivre une méthode particulière détaillée dans une vidéo spécifique puis d'exécuter une seule commande : pip install opencv-python. Cette commande ne prend que dix à vingt secondes à exécuter, et l'orateur recommande de ne pas ajouter de fonctionnalités facultatives, sauf si vous êtes un utilisateur avancé. La vidéo se termine en testant l'installation d'OpenCV et de TensorFlow à l'aide de commandes d'importation, et l'orateur encourage les téléspectateurs à laisser des commentaires, des demandes ou des commentaires.
 

Reconnaissance faciale avec Raspberry Pi + OpenCV + Python



Reconnaissance faciale avec Raspberry Pi + OpenCV + Python

Core Electronics montre comment créer un système de reconnaissance faciale à l'aide du package de reconnaissance faciale OpenCV et Python sur un Raspberry Pi. Le didacticiel comprend la formation du système à l'aide d'un code Python nommé "train_model.py" et son test via un code d'identification appelé "facial_req.py". Le système peut différencier les visages inconnus et connus, et il peut également faire tourner le servo une fois que le système reconnaît un visage connu. Le créateur remercie les équipes OpenCV et du package de reconnaissance faciale, ainsi que Carolyn Dunn, d'avoir rendu ce type de logiciel possible et a de grands espoirs pour son potentiel dans leurs futurs projets.

  • 00:00:00 Dans cette section, Core Electronics montre comment utiliser le package de reconnaissance faciale OpenCV et Python sur un Raspberry Pi pour créer un système de reconnaissance faciale. Tout d'abord, ils rassemblent le matériel nécessaire, notamment le Raspberry Pi, l'appareil photo officiel, la carte Micro SD, le cordon HDMI et l'alimentation. Après avoir configuré le raspberry pi et installé les packages, ils montrent comment entraîner le système de reconnaissance faciale à l'aide d'un code python appelé "train_model.py", puis le tester à l'aide d'un code d'identification nommé "facial_req.py". Le programme permet à la caméra Raspberry Pi de rechercher en direct des visages et de les identifier correctement une fois qu'elle les a localisés. Le système peut également distinguer les visages inconnus des visages connus, en affichant respectivement "inconnu" ou le nom du sujet.

  • 00:05:00 Dans cette section, le créateur de la vidéo explique comment ajouter six lignes de code au script pour contrôler un servo à l'aide des broches GPIO du Raspberry Pi, qui ne peuvent tourner que lorsque le système Raspberry Pi reconnaît le visage de son propriétaire. Le système n'activera pas le servo s'il ne reconnaît aucun visage ou un visage inconnu. Le créateur de la vidéo cache son visage et montre comment le servo se déplace lorsqu'il reconnaît son visage. Il remercie les équipes OpenCV et du package de reconnaissance faciale et Carolyn Dunn d'avoir créé le logiciel qui fait que ces systèmes fonctionnent si bien ensemble. Le créateur de la vidéo pense que ce logiciel a un immense potentiel pour amener des projets dans des endroits incroyables.
 

Comment installer TensorFlow 2 et OpenCV sur un Raspberry Pi



Comment installer TensorFlow 2 et OpenCV sur un Raspberry Pi

Cette vidéo fournit un guide étape par étape sur la façon d'installer TensorFlow 2 et OpenCV sur un Raspberry Pi. Le présentateur souligne l'importance d'avoir un Pi plus récent, en particulier un Pi 4 64 bits, et fournit des instructions sur la façon d'installer Raspberry Pi OS, de mettre à jour et de mettre à niveau le système, et de sélectionner le script shell TensorFlow approprié pour son système. La vidéo explique également comment changer la version Python en 3.7 pour ceux qui rencontrent des problèmes d'installation et fournit des instructions détaillées sur l'installation d'environnements virtuels, de packages système, de TensorFlow et d'OpenCV. Tout au long de la vidéo, le présentateur fournit des conseils utiles et des solutions aux erreurs potentielles. La vidéo se termine en testant l'installation d'OpenCV et de TensorFlow à l'aide de commandes d'importation et encourage les téléspectateurs à laisser des commentaires ou des demandes.

  • 00:00:00 Dans cette section de la vidéo, le présentateur explique comment configurer un Raspberry Pi pour une installation tout-en-un de TensorFlow et OpenCV, en commençant par l'importance d'avoir un Pi plus récent, en particulier un Pi 4 qui est 64 bits. La vidéo couvre le processus d'installation du système d'exploitation Raspberry Pi et la configuration d'un nom d'hôte, d'un nom d'utilisateur, d'un mot de passe et de configurations Wi-Fi à l'aide de l'imageur Raspberry Pi. Après avoir démarré le Pi, le présentateur demande aux téléspectateurs de mettre à jour et de mettre à niveau avant de vérifier leur version Python et la sortie "uname -m", qui sont importantes pour sélectionner le script shell TensorFlow approprié pour leur système. Le présentateur dirige également les téléspectateurs vers des scripts shell et des fichiers de roue hébergés en privé qui peuvent faire fonctionner TensorFlow avec le Raspberry Pi.

  • 00:05:00 Dans cette section de la vidéo, le présentateur explique comment changer votre version Python en 3.7 pour ceux qui rencontrent des problèmes lors de l'installation de TensorFlow 2 et OpenCV sur un Raspberry Pi. Pour ce faire, les spectateurs doivent utiliser pi m et installer la version Python requise. Le présentateur montre comment installer pi m, ajouter des lignes au fichier dot bash rc, installer les packages système et mettre à jour pi m. Le présentateur explique ensuite comment installer Python version 3.7.12 et créer un répertoire de projet. Enfin, le présentateur montre aux téléspectateurs comment fonctionne pi m et vérifie la version Python.

  • 00:10:00 Dans cette section, l'orateur explique comment installer TensorFlow 2 et OpenCV sur un Raspberry Pi. L'orateur suggère d'utiliser Python3.9 ou Python3.7 avec la commande de coque de roue TensorFlow appropriée. Ils expliquent comment installer un package d'environnement virtuel et créer un environnement dans lequel travailler. Le conférencier explique ensuite comment installer les packages système et TensorFlow. Un test simple est fourni pour déterminer si l'installation est réussie. L'orateur discute également d'une erreur que les utilisateurs peuvent rencontrer et présente la solution au problème.

  • 00:15:00 Dans cette section, l'orateur fournit des instructions pour installer OpenCV sur Raspberry Pi. Pour les utilisateurs de Raspberry Pi 3, il recommande de suivre une méthode particulière détaillée dans une vidéo spécifique puis d'exécuter une seule commande : pip install opencv-python. Cette commande ne prend que dix à vingt secondes à exécuter, et l'orateur recommande de ne pas ajouter de fonctionnalités facultatives, sauf si vous êtes un utilisateur avancé. La vidéo se termine en testant l'installation d'OpenCV et de TensorFlow à l'aide de commandes d'importation, et l'orateur encourage les téléspectateurs à laisser des commentaires, des demandes ou des commentaires.
 

Identification d'objets et reconnaissance d'animaux avec Raspberry Pi + OpenCV + Python



Identification d'objets et reconnaissance d'animaux avec Raspberry Pi + OpenCV + Python

La vidéo présente un projet Raspberry Pi 4 qui utilise une bibliothèque formée et une caméra Pi pour identifier une vaste gamme de 91 animaux et objets en temps réel avec un indice de confiance. Le présentateur fournit une démonstration approfondie de la configuration du matériel, de la configuration du Raspberry Pi et de l'installation du logiciel OpenCV pour permettre des opérations de vision par ordinateur et de traitement d'image en temps réel. À travers l'exemple d'une tasse en tant que cible, les téléspectateurs apprennent à modifier le code pour envoyer des signaux via les broches GPIO du Raspberry Pi afin d'exécuter des actions spécifiques lorsque OpenCV identifie la cible. Le présentateur souligne le potentiel du logiciel pour des projets passionnants et exprime sa gratitude envers les équipes OpenCV et CoCo.

  • 00:00:00 Dans cette section de la vidéo, le présentateur présente le projet d'utilisation d'un Raspberry Pi 4 en combinaison avec une bibliothèque formée et une caméra Pi pour identifier 91 objets et animaux uniques en temps réel, avec une cote de confiance mise à jour . Le logiciel Opencv est utilisé pour fournir des ressources permettant de résoudre les problèmes de vision par ordinateur et de traitement d'image en temps réel. Le présentateur parcourt les étapes nécessaires pour installer le matériel, configurer le Raspberry Pi et installer le logiciel. Le spectateur est ensuite montré comment exécuter le code et comment bricoler avec plusieurs des valeurs du code pour affiner le processus d'identification des objets et des animaux.

  • 00:05:00 Dans cette section, le présentateur montre comment modifier le code pour envoyer des signaux via les broches GPIO d'un Raspberry Pi chaque fois qu'une cible particulière, dans ce cas une tasse, est vue par le logiciel OpenCV. Le code modifié commande au Raspberry Pi de tourner chaque fois que la tasse est détectée. Le potentiel de ce logiciel à prendre en charge des projets incroyables est mis en évidence, ainsi que des remerciements aux équipes OpenCV et CoCo pour leur travail sur ce logiciel.
 

Détection d'objets Raspberry Pi à l'aide d'OpenCV Python



Détection d'objets Raspberry Pi à l'aide d'OpenCV Python

La vidéo YouTube "Object Detection Raspberry Pi using OpenCV Python" montre comment accéder et modifier un code pour la détection d'objets, en particulier le MobileNet SSD. Le didacticiel met l'accent sur le codage modulaire et fournit des conseils pour utiliser le code sur différentes plates-formes, y compris Raspberry Pi. La vidéo montre comment transformer le code en module et créer une fonction qui détecte des objets spécifiques et contrôle ce que le modèle produit. Le présentateur montre également comment modifier le code de détection d'objets en ajoutant des paramètres tels que la valeur de seuil et la suppression non maximale. La vidéo fournit les fichiers et instructions nécessaires pour configurer la détection d'objets sur un Raspberry Pi et propose une démonstration de la détection d'objets spécifiques. Le présentateur invite les téléspectateurs à visiter son site Web pour obtenir des informations sur le téléchargement et l'abonnement.

  • 00:00:00 La vidéo montre comment accéder au code du projet de détection d'objets et créer une fonction permettant aux utilisateurs d'obtenir des informations sur des objets spécifiques. Le code utilisé provient d'une vidéo précédente qui détecte différents objets à l'aide du MobileNet SSD. Le didacticiel met également l'accent sur l'écriture de code modulaire pour faciliter la suppression et l'ajout de code. En plus d'expliquer le code, le tuteur donne également des conseils utiles sur la façon d'écrire et d'utiliser le code sur différentes plates-formes, y compris Raspberry Pi.

  • 00:05:00 Dans cette section, l'orateur décrit comment transformer le code précédemment écrit en un module accessible par d'autres scripts. L'orateur démontre en créant une fonction appelée "get_objects" qui prend une image en entrée et renvoie une image avec des rectangles et des étiquettes de détection d'objet en sortie. Le conférencier montre également comment utiliser le paramètre "nms" pour supprimer les détections d'objets qui se chevauchent. À la fin de la section, l'orateur a créé une fonction modulaire qui peut être utilisée pour détecter des objets dans une image avec OpenCV et Python.

  • 00:10:00 Dans cette section, la vidéo montre comment ajouter une fonctionnalité pour contrôler s'il faut afficher les cadres de délimitation et les noms de classe pour augmenter ou diminuer la fréquence d'images. La vidéo explique qu'une valeur booléenne peut être définie pour déterminer s'il faut dessiner les cadres de délimitation, puis montre comment l'implémenter dans la boucle for. La vidéo ajoute également la fonctionnalité d'envoi d'informations sur la zone de délimitation et le nom de la classe, vous permettant de recevoir les informations réelles plutôt que de simplement les afficher. Enfin, la vidéo montre comment ajouter des fonctionnalités pour détecter des objets spécifiques et contrôler ce que le modèle produit.

  • 00:15:00 Dans cette section de la vidéo, le présentateur explique comment personnaliser le module de détection d'objets pour détecter des objets spécifiques. L'utilisateur peut créer une liste d'objets à détecter en les notant dans la liste des objets. Si l'utilisateur laisse la liste vide, il détectera toutes les classes sur lesquelles il a été formé. Le présentateur montre un exemple de la façon de détecter uniquement les tasses en ajoutant "tasse" à la liste des objets. Plusieurs objets peuvent être ajoutés à la liste et le programme ne détectera que ces objets. Le présentateur fournit également un moyen d'exécuter le module de détection d'objets à partir d'un autre module à l'aide du module principal.

  • 00:20:00 Dans cette section de la vidéo, le présentateur explique comment modifier le code de détection d'objets en ajoutant des paramètres tels qu'une valeur de seuil et une suppression non maximale (NMS). Le paramètre NMS permet de supprimer les détections en double dans l'image. Le présentateur montre comment ajouter ces paramètres au code et montre les effets de la modification de leurs valeurs. Plus loin dans la vidéo, le présentateur explique que pour exécuter le code sur un Raspberry Pi, OpenCV version 4.3 ou ultérieure est nécessaire. Si l'utilisateur n'a pas installé cette version auparavant, il peut suivre les instructions du présentateur sur son site Web.

  • 00:25:00 Dans cette section, l'instructeur montre comment configurer la détection d'objets sur un Raspberry Pi à l'aide d'OpenCV et de Python. Cela implique de remplacer plusieurs fichiers par la dernière version, d'importer cv2 et de vérifier le numéro de version. L'instructeur fournit également les fichiers nécessaires à la détection d'objets et montre comment modifier le chemin d'accès au fichier pour qu'il fonctionne correctement. De plus, l'instructeur montre un exemple de détection d'objet à l'aide d'une caméra externe et note que le traitement peut prendre un certain temps. Le code est exécuté avec succès et le modèle est capable de détecter des objets tels que des bouteilles, des tasses et des télécommandes.

  • 00:30:00 Dans cette section, le présentateur démontre la capacité de détecter des objets spécifiques en utilisant OpenCV et Python sur un Raspberry Pi. Ils testent la détection en changeant l'étiquette de "distant" en "tasse" puis en "bouteille" et procèdent à nouveau à la détection. La détection semble bien fonctionner sur le Raspberry Pi, mais elle est lente. Le présentateur mentionne qu'il essaiera la même détection sur un Jetson Nano dans la prochaine vidéo pour voir à quel point il fonctionne mieux. Ils invitent également les téléspectateurs à visiter leur site Web pour télécharger gratuitement les fichiers et les codes et à s'abonner à leur chaîne.
 

Installez et construisez OpenCV python à partir de la source sur Raspberry pi 4 et 3



Installez et construisez OpenCV python à partir de la source sur Raspberry pi 4 et 3

La vidéo YouTube explique deux méthodes d'installation d'OpenCV pour Python sur un Raspberry Pi, la première impliquant une seule commande de terminal pour installer des binaires pré-construits et la seconde méthode nécessitant la construction d'OpenCV à partir de la source. Après avoir téléchargé la source à partir du référentiel Github, les dernières étapes de la construction d'OpenCV à partir de la source sur un Raspberry Pi impliquent l'exécution des commandes cmake et make, ce qui peut prendre plusieurs heures, avant de taper la commande "sudo make install". La vidéo montre comment vérifier la réussite de l'installation à l'aide d'une commande Python. La vidéo se termine par un encouragement à aimer, à s'abonner et à poser des questions dans la section des commentaires.

  • 00:00:00 Dans cette section de la vidéo, le présentateur explique deux méthodes pour installer OpenCV pour Python sur un Raspberry Pi. La première méthode consiste à installer des binaires pré-construits avec une seule commande de terminal, ce qui est simple mais peut ne pas garantir la dernière version d'OpenCV. La deuxième méthode consiste à créer OpenCV à partir de la source, ce qui nécessite d'abord d'installer certaines dépendances, de télécharger la source à partir du référentiel Github et de créer et d'exécuter une commande pour créer la source. Les deux méthodes sont présentées étape par étape dans la vidéo.

  • 00:05:00 Dans cette section, la vidéo décrit les dernières étapes de l'installation et de la construction d'OpenCV Python à partir de la source sur un Raspberry Pi 4 ou 3. Après avoir exécuté la commande cmake puis la commande make, qui peut prendre plusieurs heures, la dernière étape consiste à taper "sudo make install". Pour vérifier si l'installation a réussi, la vidéo montre comment entrer la commande "python3" puis "importer cv2 en tant que cv" suivi d'une instruction d'impression. Si le terminal renvoie un message avec la version d'OpenCV, l'installation a réussi. La vidéo encourage les téléspectateurs à aimer et à s'abonner à la chaîne et à poser des questions dans la section des commentaires.
 

Neural Net dans votre téléphone : de la formation au déploiement via ONNX



Neural Net dans votre téléphone : de la formation au déploiement via ONNX

Dans cette vidéo sur "Neural Net in your Phone: From Training to Deployment through ONNX", le présentateur montre comment former un réseau de neurones à l'aide de l'API de la communauté iNaturalist pour identifier différentes espèces de champignons en fonction de leur caractère toxique ou comestible. Ils expliquent ensuite comment déployer le modèle sur un iPhone en utilisant le package Core ML d'Apple. L'orateur souligne également l'importance de formater le modèle formé au format de fichier ONNX avant de l'importer dans Core ML. Le présentateur souligne que l'EfficientNet sera le futur modèle de classification d'images, avec une attention requise dans la sélection des modèles, et suggère de construire des classificateurs pour les plantes, les animaux ou les oiseaux.

  • 00:00:00 Dans cette section, le présentateur explique comment entraîner un classificateur d'images de champignons à l'aide de l'API de la communauté iNaturalist pour obtenir des centaines d'images différentes de toutes sortes d'espèces de champignons. À l'aide de Mathematica, ils ont stocké les images et les ont classées selon qu'elles étaient toxiques ou comestibles, sur la base de 11 espèces de champignons toxiques et 11 comestibles communes dans leur région. Les images ont été recadrées et redimensionnées avant la formation ultérieure du réseau de neurones. Le présentateur fait la démonstration avec le Fly Agarik et le Death Cap, un champignon mortel qui a également été classé efficacement par la même méthode.

  • 00:05:00 Dans cette section, l'orateur discute du processus de formation d'un réseau de neurones pour identifier différentes espèces de champignons, en utilisant un modèle de réseau pré-formé à partir du référentiel de réseaux. Ils décrivent comment ils ont créé des étiquettes de classe et des ensembles d'entraînement et de test, et ont utilisé l'apprentissage par transfert pour entraîner le modèle avec une méthode de descente de gradient stochastique. Ils mentionnent également l'importance d'exporter le modèle formé au format de fichier ONNX, qui est un format d'échange de réseau de neurones ouvert créé il y a quelques années par des leaders de l'industrie de l'apprentissage automatique.

  • 00:10:00 Dans cette section, l'orateur explique comment les réseaux de neurones peuvent être déployés sur un appareil du système d'exploitation iOS à l'aide du package Core ML d'Apple. Pour convertir le modèle au format Core ML, l'orateur montre comment utiliser les outils CoreML pour importer divers types de modèles de réseau, y compris ONNX, et comment spécifier des arguments de prétraitement et des étiquettes de classe pour l'ensemble de données de champignons utilisé comme exemple. L'orateur note également que les modèles Core ML ont un fonctionnement similaire aux modèles de langage naturel, avec un encodeur et un décodeur, et met en évidence certaines différences entre les deux formats en termes de valeurs de pixels et de biais de couleur.

  • 00:15:00 Dans cette section, l'orateur explique les étapes à suivre pour déployer un modèle Core ML sur un iPhone. Ils montrent comment remplacer le modèle MobileNet préexistant sur un projet Xcode par leur propre modèle d'espèces de champignons. L'orateur démontre que le modèle fonctionne correctement en le testant sur divers champignons trouvés dans les bois. Ils encouragent le public à consulter leur bloc-notes Jupyter pour plus d'informations.

  • 00:20:00 Dans cette section, l'orateur mentionne que le modèle le plus performant pour la classification d'images est l'EfficientNet, qui sera disponible dans le futur. Cependant, l'utilisateur doit faire attention à ne pas choisir un modèle EfficientNet trop lourd en mémoire. L'orateur met en garde contre l'utilisation du classificateur pour cuisiner sans consultation d'un expert, car certains types de champignons peuvent être mortels. À l'avenir, l'orateur prévoit de créer un flux de travail pour la présentation et de proposer des articles de blog sur le sujet. Ils prévoient également d'inclure des exemples pour l'audio, tels que l'identification des chants d'oiseaux. L'orateur suggère de créer un groupe d'étude pour ces applications et sujets, et souligne que le point ONNX dépend de l'utilisation d'Android.

  • 00:25:00 Dans cette section, l'orateur discute de différentes options pour importer des observations d'espèces et d'autres fonctions utiles, telles que l'importation de la recherche gpif, l'importation gpif et les données globales, qui peuvent être utilisées pour créer des classificateurs sur les animaux ou les plantes. L'orateur remercie également le public pour son attention et l'invite à poser davantage de questions dans le groupe d'apprentissage automatique de la communauté.
 

ONNX sur MCU



ONNX sur MCU

Rohit Sharma parle des défis et des opportunités liés à l'exécution de modèles ONNX sur des microcontrôleurs. Il souligne que même si ces appareils manquent des ressources des serveurs hautes performances, il y a eu un nombre croissant d'applications d'apprentissage automatique pour les petits appareils en raison de l'amélioration des ressources matérielles et des efforts de la communauté de l'IA pour réduire la taille des modèles. Sharma présente deux outils permettant d'implémenter facilement l'apprentissage automatique sur des microcontrôleurs : DeepSea, un compilateur open source à l'avance qui prend en charge Python et permet aux développeurs de créer des algorithmes ML personnalisés, et Canvas, une plate-forme no-code/low-code fournissant plus de 70 petites applications ML pouvant être personnalisées en fonction de l'ensemble de données de l'utilisateur. Il fournit deux cas d'utilisation pour ces outils, notamment un gant portable qui traduit les gestes des signes en mots et la détection des mots faibles pour les appareils à assistance vocale comme Amazon Echo.

  • 00:00:00 Dans cette section, Rohit Sharma discute des défis et des opportunités liés à l'exécution de modèles ONNX sur des microcontrôleurs, qui sont de minuscules appareils fonctionnant sur batteries pendant des mois. Bien que ces appareils ne disposent pas des ressources de calcul des serveurs hautes performances avec des accélérateurs ou des ordinateurs monocartes, le nombre croissant d'applications d'apprentissage automatique exécutées sur de minuscules appareils est dû au fait que les fournisseurs de MCU continuent d'améliorer les ressources matérielles tandis que la communauté de recherche en IA travaille à réduire la taille du modèle. Sharma explique que toutes les petites applications ML sont des applications d'IA de pointe, mais toutes les applications d'IA de pointe ne sont pas de minuscules applications ML, car la différence est enracinée dans la consommation d'énergie. Il poursuit ensuite en discutant du processus de compilation des modèles ONNX avec DeepSea, un compilateur de bibliothèque d'apprentissage en profondeur open source et indépendant du fournisseur et un cadre d'inférence conçu pour les appareils à petit facteur de forme, y compris les microcontrôleurs, l'IoT et les appareils de périphérie.

  • 00:05:00 Dans cette section, le conférencier décrit deux outils pour mettre en œuvre facilement l'apprentissage automatique sur des microcontrôleurs. Le premier outil est DeepSea, un compilateur d'anticipation (AOT) open source qui prend en charge Python et permet aux développeurs de créer des algorithmes d'apprentissage automatique personnalisés. Le deuxième outil est Canvas, une plate-forme no-code/low-code fournissant une galerie de plus de 70 petites applications d'apprentissage automatique. Canvas permet de personnaliser ces applications pour créer un petit modèle d'apprentissage automatique adapté à l'ensemble de données de l'utilisateur. L'orateur a également fourni deux cas d'utilisation pour ces outils : un gant portable qui convertit les gestes des signes en mots parlés et la détection des mots faibles pour activer les appareils à assistance vocale tels qu'Amazon Echo.