Apprendre ONNX pour le trading - page 9

 

Classification d'images fonctionnant sur Raspberry Pi avec divers modèles MobileNet ONNX


Classification d'images fonctionnant sur Raspberry Pi avec divers modèles MobileNet ONNX

Effectuez la classification des images sur Raspberry Pi 4 à ONNX Runtime en utilisant 3 modèles de modèles MobileNet V1 ONNX.

  1. Profondeur 1.00 & 224x224
  2. Profondeur 0.50 & 160x160
  3. Profondeur 0.25 & 128x128

La classification se fait en 7ms, selon le modèle utilisé.

 

SSDLite Mobilenet V2 sur ONNX Runtime fonctionnant sur Raspberry Pi 4


SSDLite Mobilenet V2 sur ONNX Runtime fonctionnant sur Raspberry Pi 4

SSDLite Mobilenet V2 sur ONNX Runtime fonctionnant sur Raspberry Pi 4 sans accélération matérielle.

 

SSDLite Mobilenet V1 0.75 profondeur sur ONNX Runtime fonctionnant sur Raspberry Pi 4



SSDLite Mobilenet V1 0.75 profondeur sur ONNX Runtime fonctionnant sur Raspberry Pi 4

Profondeur SSDLite Mobilenet V1 0.75 sur ONNX Runtime fonctionnant sur Raspberry Pi 4 sans accélération matérielle.

 

Tiny-YOLOv3 sur ONNX Runtime fonctionnant sur Raspberry Pi 4



Tiny-YOLOv3 sur ONNX Runtime fonctionnant sur Raspberry Pi 4

Tiny-YOLOv3 sur ONNX Runtime fonctionnant sur Raspberry Pi 4 sans accélération matérielle.

 

Classification et détection d'objets Raspberry Pi 4 avec exécution ONNX optimisée



Classification et détection d'objets Raspberry Pi 4 avec exécution ONNX optimisée

Effectuez la classification des images sur Raspberry Pi 4 à ONNX Runtime :

  1. Classification à l'aide de MobileNet V3 ;
  2. Détection à l'aide de SSDLite MobileNet V2.
 

Détection d'objets Raspberry Pi 4 avec exécution ONNX optimisée (fin 2020)



Détection d'objets Raspberry Pi 4 avec exécution ONNX optimisée (fin 2020)

Matériel : Raspberry Pi 4B
Système d'exploitation : système d'exploitation Raspberry Pi (32 bits)
Logiciel : ONNX Runtime 1.4.0 avec fournisseur d'exécution personnalisé (CPU accéléré)
Des modèles:

 

Tiny-YOLOv3 sur ONNX Runtime fonctionnant sur Raspberry Pi 4


Tiny-YOLOv3 sur ONNX Runtime fonctionnant sur Raspberry Pi 4

Tiny-YOLOv3 sur ONNX Runtime fonctionnant sur Raspberry Pi 4 sans accélération matérielle.

 

Détection d'objets de conduite autonome sur le Raspberry Pi 4 !



Détection d'objets de conduite autonome sur le Raspberry Pi 4 !

Dans ce didacticiel, l'instructeur montre les étapes nécessaires pour configurer le Raspberry Pi 4 pour la détection d'objets avec un réseau neuronal formé à la conduite autonome. Cela inclut le clonage du référentiel, la configuration d'un environnement virtuel, l'installation de dépendances telles que GPIO, OpenCV et TensorFlow, et la configuration du module de caméra Raspberry Pi. Ensuite, l'instructeur montre comment connecter une LED et un bouton-poussoir au Pi et exécuter un script Python pour capturer des images avec détection d'objet. Enfin, l'utilisateur peut apporter des modifications au fichier batch rc pour exécuter le script au démarrage et enregistrer des séquences avec les images enregistrées dans le chemin de sortie.

  • 00:00:00 Dans cette section, l'instructeur vidéo parcourt les étapes de configuration du logiciel pour effectuer la détection d'objets avec un réseau neuronal formé à la conduite autonome sur Raspberry Pi 4. L'instructeur commence par s'assurer que le Raspberry Pi est à jour, en clonant le référentiel fourni dans la description de la vidéo et l'installation d'un environnement virtuel pour séparer les dépendances de ce projet des autres projets sur le système. L'instructeur active ensuite l'environnement virtuel avant d'installer des dépendances telles qu'un package gpio python, OpenCV et TensorFlow, qui sont toutes les choses nécessaires pour le projet, en exécutant un script bash. Enfin, l'instructeur montre comment configurer le module caméra Raspberry Pi en entrant les paramètres de configuration dans le terminal et en le connectant au Raspberry Pi 4.

  • 00:05:00 Dans cette section, le présentateur montre comment configurer le module de caméra, la LED et le bouton-poussoir sur le Raspberry Pi pour la détection d'objets de conduite autonome. Le module de caméra est simplement branché sur le Pi et fixé en place. Une LED est connectée au Pi avec une résistance de 470 ohms pour fournir un retour visuel pendant l'exécution du programme. De même, un bouton poussoir est ajouté à la maquette pour permettre de démarrer et d'arrêter le traitement des images. Le présentateur montre ensuite le côté logiciel de la configuration en exécutant un script Python avec des arguments pour le réseau neuronal du moniteur et le chemin de sortie, qui enregistre les images traitées à un emplacement spécifié.

  • 00:10:00 Dans cette section, nous voyons le chemin de sortie et où les images capturées par le Raspberry Pi avec détection d'objet sont enregistrées. L'utilisateur procède ensuite à des ajustements sur le fichier batch rc afin que le script python s'exécute au démarrage, sans avoir besoin d'un clavier ou d'une souris. La dernière étape consiste à mettre le Raspberry Pi dans la voiture, à le brancher sur une prise secteur et à commencer à enregistrer des séquences avec les images traitées enregistrées dans le chemin de sortie spécifié. L'utilisateur suggère que les images capturées puissent être transformées en gif ou en vidéo.
 

Comment exécuter TensorFlow Lite sur Raspberry Pi pour la détection d'objets



Comment exécuter TensorFlow Lite sur Raspberry Pi pour la détection d'objets

Le tutoriel explique comment configurer TensorFlow Lite sur un Raspberry Pi pour la détection d'objets. Cela implique la mise à jour du Pi, l'activation de l'interface de la caméra, le téléchargement du référentiel GitHub, la création d'un environnement virtuel, l'installation de TensorFlow et OpenCV, et l'exécution d'un script shell pour installer tous les packages et dépendances requis. Les utilisateurs peuvent télécharger un exemple de modèle fourni par Google ou former leur propre modèle personnalisé. Une fois le modèle prêt, les utilisateurs peuvent exécuter un code sur Python 3 pour voir leur script de détection de webcam en temps réel, la détection sur les vidéos et les images. La vitesse améliorée de TensorFlow Lite le rend utile pour les applications de détection en temps réel, telles que les caméras intelligentes ou les systèmes d'alarme. Le créateur mentionne également son propre projet de détecteur d'animaux de compagnie et encourage les téléspectateurs à rester à l'écoute pour leur prochaine vidéo sur la configuration de l'accélérateur Coral USB.

  • 00:00:00 Dans cette section, le didacticiel vidéo explique étape par étape comment configurer TensorFlow Lite sur un Raspberry Pi pour la détection d'objets. TensorFlow Lite est un modèle d'apprentissage automatique léger optimisé pour fonctionner sur des appareils à faible puissance comme le Pi, avec des temps d'inférence plus rapides et moins de puissance de traitement requise. Le didacticiel couvre la mise à jour du Pi, l'activation de l'interface de la caméra, le téléchargement du référentiel GitHub, la création d'un environnement virtuel, l'installation de TensorFlow et OpenCV et l'exécution d'un script shell pour installer tous les packages et dépendances requis. La vidéo comprend également des conseils pour gérer les erreurs et obtenir de l'aide, et le guide GitHub comprend une liste d'erreurs et de solutions courantes.

  • 00:05:00 Dans cette section, l'intervenant explique comment configurer le modèle de détection pour TensorFlow Lite. Les utilisateurs peuvent soit télécharger un exemple de modèle fourni par Google, soit former leur propre modèle personnalisé. L'exemple de modèle de Google est un modèle de réseau mobile SSD quantifié formé sur l'ensemble de données MS cacao, ce qui lui permet de détecter 80 objets courants avec une perte de précision minimale. Pour télécharger l'exemple de modèle, les utilisateurs peuvent cliquer avec le bouton droit sur le lien
    dans la description et exécutez-le sur le terminal en utilisant "W git" pour le téléchargement et "unzip" pour l'extraction. De plus, le conférencier fournit un guide écrit sur GitHub pour les utilisateurs qui souhaitent former un modèle de détection et le convertir en TensorFlow Lite. Une fois le modèle prêt, les utilisateurs peuvent exécuter un code sur Python 3 pour voir leur script de détection de webcam en temps réel, la détection sur les vidéos et les images. L'orateur a également mentionné qu'ils expliqueront comment obtenir une énorme augmentation de la vitesse de détection en utilisant l'accélérateur USB choral de Google dans leur prochaine vidéo.

  • 00:10:00 Dans cette section, le créateur de la vidéo mentionne que la vitesse améliorée de TensorFlow Lite le rend utile pour les applications de détection en temps réel telles que les caméras intelligentes ou les systèmes d'alarme. Ils mentionnent également leur propre projet, une vidéo de détecteur d'animaux de compagnie où ils ont utilisé la détection d'objets pour les alerter si leur chat veut sortir, et disent qu'ils publieront plus de projets de vision par ordinateur TensorFlow. Ils terminent en remerciant les téléspectateurs d'avoir regardé et les encouragent à rester à l'écoute pour leur prochaine vidéo sur la configuration de l'accélérateur Coral USB.
 

Comment configurer la détection d'objets TensorFlow sur le Raspberry Pi



Comment configurer la détection d'objets TensorFlow sur le Raspberry Pi

Dans cette vidéo, le processus de configuration de l'API de détection d'objets TensorFlow sur un Raspberry Pi est expliqué étape par étape. Tout d'abord, les packages requis sont installés, y compris TensorFlow, OpenCV et protobuf. Ensuite, la structure TensorFlow est configurée et les modèles SSD Lite sont téléchargés à partir du zoo de modèles de détection TensorFlow. Un script Python pour la détection d'objets est fourni et les spectateurs apprennent à l'utiliser avec une caméra Pi ou une webcam USB. La vidéo couvre également des sujets plus avancés, tels que le téléchargement et l'utilisation d'un modèle personnalisé. Le Raspberry Pi est recommandé pour les projets créatifs qui nécessitent un faible coût et une portabilité, comme une chatière numérique qui peut envoyer un message lorsqu'elle détecte le chat résident à l'extérieur.

  • 00:00:00 Dans cette section de la vidéo, le narrateur fournit un guide sur la configuration de l'API de détection d'objets TensorFlow sur un Raspberry Pi. Les étapes comprennent la mise à jour du Raspberry Pi, l'installation de TensorFlow, OpenCV et protobuf, la configuration de la structure de répertoires TensorFlow et le test du détecteur d'objets. Le narrateur recommande également d'installer des dépendances supplémentaires, telles que numpy, pillow, scipy et matplotlib. De plus, la vidéo fournit des conseils utiles tels que l'installation de libatlas et du codec libAV pour un traitement fluide.

  • 00:05:00 Dans cette section, le conférencier fournit un guide étape par étape sur la façon d'installer l'API de détection d'objets TensorFlow sur le Raspberry Pi. Ils commencent par installer les packages nécessaires, notamment lib xvid core dev, lib x264 dev et QT for dev tools, suivis d'OpenCV. L'orateur explique ensuite les défis liés à l'installation de protobuf sur le Raspberry Pi et explique au spectateur comment le compiler à partir de la source, notamment en obtenant les packages nécessaires pour compiler proto bruh fun source et en téléchargeant la page des versions de protobuf. Enfin, le haut-parleur fournit les commandes de chemin nécessaires et émet la commande pour installer l'implémentation Python des tampons de protocole.

  • 00:10:00 Dans cette section, l'orateur explique le processus de configuration du répertoire TensorFlow sur le Raspberry Pi. Cela implique de créer un répertoire pour TensorFlow et de télécharger le référentiel TensorFlow depuis GitHub. La variable d'environnement de chemin Python doit être modifiée pour pointer vers certains répertoires à l'intérieur du référentiel TensorFlow, et cela se fait en modifiant le fichier bash RC. Le conférencier explique également comment télécharger le modèle SSD Lite du zoo de modèles de détection TensorFlow et l'utilisation de Pro Talk pour compiler les fichiers tampons de protocole utilisés par l'API de détection d'objets. Enfin, un script Python de détection d'objets sur les flux en direct d'une caméra Pi ou d'une webcam USB est fourni, dont le code est disponible sur le référentiel GitHub de l'intervenant.

  • 00:15:00 Dans cette section, l'orateur explique aux téléspectateurs comment utiliser la détection d'objets TensorFlow sur Raspberry Pi. Ils demandent d'abord aux spectateurs de télécharger et d'exécuter le script python pour la détection d'objets, en s'assurant que la caméra PI est activée dans le menu de configuration. Ils expliquent également qu'il est recommandé de fermer toutes les autres applications, en particulier le navigateur Web, car tensorflow utilise beaucoup de mémoire. L'orateur montre également comment utiliser un modèle que l'utilisateur a formé lui-même et fournit un lien Dropbox pour son propre modèle de détection de cartes à jouer à titre d'exemple. Il est conseillé aux spectateurs d'exécuter le script de détection d'objet, qui peut prendre jusqu'à une minute pour s'initialiser, puis détectera les objets communs et les affichera dans une fenêtre avec un rectangle. Enfin, le conférencier recommande le Raspberry Pi pour les applications créatives nécessitant peu de coûts et de portabilité, comme une chatière numérique qui envoie un message lorsqu'elle détecte le chat résident à l'extérieur.
Raison: