Lernen mit ONNX für den Handel - Seite 9

 

So installieren Sie ONNX Runtime auf Raspberry Pi



So installieren Sie ONNX Runtime auf Raspberry Pi

Das Video bietet eine detaillierte Anleitung zur Installation von ONNX Runtime auf Raspberry Pi. Nach dem Herunterladen und Installieren von Raspbian Stretch auf dem Raspberry Pi muss der Benutzer Docker und das statische QMU-Benutzerpaket installieren, ein Build-Verzeichnis erstellen und einen Befehl ausführen, um das ONNX Runtime Wheel-Paket abzurufen, das über pip installiert werden kann. Das Video erklärt auch, wie ONNX Runtime mit einem tiefen neuronalen Netzwerk getestet wird, das auf dem MNIST-Datensatz trainiert wurde, und wie die Zeit berechnet wird, die zum Ausführen einer Inferenzsitzung für ein einzelnes Bild benötigt wird. Der Redner merkt an, dass der Prozess langwierig und kompliziert sein kann, sich aber für die Fähigkeit lohnt, neuronale Netze auf Edge-Geräten bereitzustellen und zu testen.

  • 00:00:00 Das Betriebssystem wurde von Raspberry Pi veröffentlicht und Sie können Raspberry Pi OS (früher Raspbian) Stretch von hier herunterladen. Nachdem Sie Docker auf Ihren Raspberry Pi heruntergeladen und installiert haben, müssen Sie im nächsten Schritt zum ONNX Runtime Github-Repository gehen und die Docker-Datei für die ARM32v7-Plattform finden. Es gibt verschiedene Dockerfiles für verschiedene Plattformen, aber ARM32v7 ist diejenige, die Sie für Raspberry Pi benötigen. Wenn Sie das richtige Dockerfile gefunden haben, können Sie den bereitgestellten Anweisungen folgen, um ONNX Runtime auf Ihrem Raspberry Pi zu installieren. Dies kann ein etwas langwieriger und komplizierter Prozess sein, aber es lohnt sich, um neuronale Netze auf Edge-Geräten bereitzustellen und zu testen.

  • 00:05:00 In diesem Abschnitt erklärt der Referent, wie man ONNX Runtime auf dem Raspberry Pi installiert. Zunächst muss der Benutzer die Raspbian-Stretch-Datei und den Raspberry Pi-Imager herunterladen, um die SD-Karte bootfähig zu machen. Sobald Raspbian Stretch auf Raspberry Pi installiert ist, muss der Benutzer Docker und das statische QMU-Benutzerpaket installieren. Nach dem Erstellen eines Build-Verzeichnisses muss der Benutzer die aktualisierte Docker-Datei im Build-Verzeichnis speichern und den Befehl ausführen, um das ONNX Runtime Wheel-Paket abzurufen. Sobald die Wheel-Datei mit pip installiert und getestet wurde, kann sie importiert und ONNX auf Raspberry Pi mit Python 3 Version 3.8 verwendet werden.

  • 00:10:00 In diesem Abschnitt erklärt der Referent, wie man ONNX Runtime auf Raspberry Pi verwendet, um ein Modell zu testen, das mit einem bestimmten Datensatz trainiert wurde. Der Referent hat bereits ein tiefes neuronales Netzwerk trainiert, das mithilfe des MNIST-Datensatzes eine Ziffernklassifizierung durchführen kann, und einen Link zum Code und Modell bereitgestellt. Nach dem Importieren der erforderlichen Bibliotheken erstellt der Referent ein Skript, das eine Inferenzsitzung mit ONNX Runtime ausführt. Der Redner stößt auf einen Segmentierungsfehler und erfährt nach der Recherche mehr über die drei Ebenen der Diagrammoptimierung, die ONNX Runtime ausführen kann, und deaktiviert sie, führt das Skript erfolgreich aus und erhält die vorhergesagte Ausgabe.

  • 00:15:00 In diesem Abschnitt erklärt der Referent, wie sie die Zeit berechnet haben, die ihr Raspberry Pi benötigt, um eine Inferenzsitzung für ein einzelnes Bild auszuführen. Sie führen ein separates Skript ein, das die Zeitbibliothek verwendet, um die Zeit zu berechnen, die zum Generieren der Ausgabe und zum Ausführen des Modells innerhalb der ONNX-Laufzeit benötigt wird, was etwa 0,06 Sekunden dauert, was laut Sprecher für ein einfaches Modell und eine kleine Bildgröße wirklich gut ist. Sie ermutigen die Zuschauer, die ONNX-Laufzeit auf ihrem Raspberry Pi zu installieren und sich bei Fragen oder Bedenken zu melden.
How to install ONNX Runtime on Raspberry Pi
How to install ONNX Runtime on Raspberry Pi
  • 2020.09.24
  • www.youtube.com
This video explains how to install Microsoft's deep learning inference engine ONNX Runtime on Raspberry Pi.Jump to a section:0:19 - Introduction to ONNX Runt...
 

Bildklassifizierung auf Raspberry Pi mit verschiedenen MobileNet ONNX-Modellen


Bildklassifizierung auf Raspberry Pi mit verschiedenen MobileNet ONNX-Modellen

Führen Sie die Bildklassifizierung auf Raspberry Pi 4 zur ONNX-Laufzeit mit 3 Mustern von MobileNet V1 ONNX-Modellen durch.

  1. Tiefe 1,00 & 224x224
  2. Tiefe 0,50 & 160x160
  3. Tiefe 0,25 & 128x128

Die Klassifizierung erfolgt je nach verwendetem Modell in 7 ms.

Image Classification working on Raspberry Pi with various MobileNet ONNX models
Image Classification working on Raspberry Pi with various MobileNet ONNX models
  • 2020.05.26
  • www.youtube.com
Perform image classification on Raspberry Pi 4 at ONNX Runtime using 3 pattern of MobileNet V1 ONNX models.1) Depth 1.00 & 224x2242) Depth 0.50 & 160x1603) D...
 

SSDLite Mobilenet V2 auf ONNX Runtime läuft auf Raspberry Pi 4


SSDLite Mobilenet V2 auf ONNX Runtime läuft auf Raspberry Pi 4

SSDLite Mobilenet V2 auf ONNX Runtime läuft auf Raspberry Pi 4 ohne Hardwarebeschleunigung.

SSDLite Mobilenet V2 on ONNX Runtime working on Raspberry Pi 4
SSDLite Mobilenet V2 on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.26
  • www.youtube.com
SSDLite Mobilenet V2 on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration
 

SSDLite Mobilenet V1 0.75 Tiefe auf ONNX Runtime läuft auf Raspberry Pi 4



SSDLite Mobilenet V1 0.75 Tiefe auf ONNX Runtime läuft auf Raspberry Pi 4

SSDLite Mobilenet V1 0.75 Tiefe auf ONNX Runtime läuft auf Raspberry Pi 4 ohne Hardwarebeschleunigung.

SSDLite Mobilenet V1 0.75 depth on ONNX Runtime working on Raspberry Pi 4
SSDLite Mobilenet V1 0.75 depth on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.26
  • www.youtube.com
SSDLite Mobilenet V1 0.75 depth on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration.
 

Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4



Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4

Tiny-YOLOv3 auf ONNX Runtime funktioniert auf Raspberry Pi 4 ohne Hardwarebeschleunigung.

Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.08
  • www.youtube.com
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration
 

Raspberry Pi 4-Klassifizierung und Objekterkennung mit optimierter ONNX-Laufzeit



Raspberry Pi 4-Klassifizierung und Objekterkennung mit optimierter ONNX-Laufzeit

Bildklassifizierung auf Raspberry Pi 4 zur ONNX-Laufzeit durchführen:

  1. Klassifizierung mit MobileNet V3;
  2. Erkennung mit SSDLite MobileNet V2.
Raspberry Pi 4 Classification and Object Detection with Optimized ONNX Runtime
Raspberry Pi 4 Classification and Object Detection with Optimized ONNX Runtime
  • 2020.08.06
  • www.youtube.com
Perform image classification on Raspberry Pi 4 at ONNX Runtime1) Classification using MobileNet V32) Detection using SSDLite MobileNet V2
 

Objekterkennung für Raspberry Pi 4 mit optimierter ONNX-Laufzeit (Ende 2020)



Objekterkennung für Raspberry Pi 4 mit optimierter ONNX-Laufzeit (Ende 2020)

Hardware: Raspberry Pi 4B
Betriebssystem: Raspberry Pi-Betriebssystem (32 Bit)
Software: ONNX Runtime 1.4.0 mit benutzerdefiniertem Ausführungsanbieter (CPU-beschleunigt)
Modelle:

Raspberry Pi 4 Object Detection with Optimized ONNX Runtime (Late 2020)
Raspberry Pi 4 Object Detection with Optimized ONNX Runtime (Late 2020)
  • 2020.12.15
  • www.youtube.com
Hardware : Raspberry Pi 4BOS : Raspberry Pi OS (32bit)Software : ONNX Runtime 1.4.0 with custom execution provider (CPU accelerated)ModelsMobileNetV1 SSD 0.7...
 

Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4


Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4

Tiny-YOLOv3 auf ONNX Runtime funktioniert auf Raspberry Pi 4 ohne Hardwarebeschleunigung.

Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4
  • 2020.04.11
  • www.youtube.com
Tiny-YOLOv3 on ONNX Runtime working on Raspberry Pi 4 without hardware acceleration
 

Autonomes Fahren Objekterkennung auf dem Raspberry Pi 4!



Autonomes Fahren Objekterkennung auf dem Raspberry Pi 4!

In diesem Tutorial demonstriert der Ausbilder die Schritte, die erforderlich sind, um den Raspberry Pi 4 für die Objekterkennung mit einem für das autonome Fahren trainierten neuronalen Netzwerk zu konfigurieren. Dazu gehören das Klonen des Repositorys, das Einrichten einer virtuellen Umgebung, das Installieren von Abhängigkeiten wie GPIO, OpenCV und TensorFlow und das Konfigurieren des Raspberry Pi-Kameramoduls. Als Nächstes demonstriert der Kursleiter das Anschließen einer LED und eines Druckknopfs an den Pi und das Ausführen eines Python-Skripts zum Erfassen von Bildern mit Objekterkennung. Schließlich kann der Benutzer Anpassungen an der Batch-RC-Datei vornehmen, um das Skript beim Booten auszuführen und Filmmaterial mit den im Ausgabepfad gespeicherten Bildern aufzuzeichnen.

  • 00:00:00 In diesem Abschnitt führt der Videolehrer durch die Softwarekonfigurationsschritte zur Durchführung der Objekterkennung mit einem für das autonome Fahren trainierten neuronalen Netzwerk auf dem Raspberry Pi 4. Der Lehrer beginnt damit, sicherzustellen, dass der Raspberry Pi auf dem neuesten Stand ist, und klont das Repository in der Videobeschreibung bereitgestellt, und Installieren einer virtuellen Umgebung, um Abhängigkeiten für dieses Projekt von anderen Projekten auf dem System getrennt zu halten. Der Kursleiter aktiviert dann die virtuelle Umgebung, bevor er Abhängigkeiten wie ein gpio-Python-Paket, OpenCV und TensorFlow installiert, die allesamt für das Projekt benötigt werden, indem er ein Bash-Skript ausführt. Abschließend zeigt der Ausbilder, wie das Kameramodul des Raspberry Pi konfiguriert wird, indem die Konfigurationseinstellungen im Terminal eingegeben und mit dem Raspberry Pi 4 verbunden werden.

  • 00:05:00 In diesem Abschnitt demonstriert der Moderator, wie das Kameramodul, die LED und die Drucktaste auf dem Raspberry Pi für die Objekterkennung beim autonomen Fahren eingerichtet werden. Das Kameramodul wird einfach auf den Pi gesteckt und fixiert. Eine LED ist mit einem 470-Ohm-Widerstand mit dem Pi verbunden, um ein visuelles Feedback zu geben, während das Programm läuft. In ähnlicher Weise wird dem Steckbrett ein Druckknopf hinzugefügt, um das Starten und Stoppen der Verarbeitung von Bildern zu ermöglichen. Der Moderator zeigt dann die Softwareseite des Setups, indem er ein Python-Skript mit Argumenten für das neuronale Netzwerk des Monitors und den Ausgabepfad ausführt, das die verarbeiteten Bilder an einem bestimmten Ort speichert.

  • 00:10:00 In diesem Abschnitt sehen wir den Ausgabepfad und wo die vom Raspberry Pi mit Objekterkennung aufgenommenen Bilder gespeichert werden. Anschließend nimmt der Benutzer Anpassungen an der Batch-RC-Datei vor, sodass das Python-Skript beim Booten ausgeführt wird, ohne dass eine Tastatur oder Maus erforderlich ist. Der letzte Schritt besteht darin, den Raspberry Pi in das Auto zu stellen, ihn an eine Steckdose anzuschließen und mit der Aufzeichnung von Filmmaterial zu beginnen, wobei die verarbeiteten Bilder im angegebenen Ausgabepfad gespeichert werden. Der Benutzer schlägt vor, dass die aufgenommenen Bilder in ein GIF oder ein Video umgewandelt werden können.
Autonomous Driving Object Detection on the Raspberry Pi 4!
Autonomous Driving Object Detection on the Raspberry Pi 4!
  • 2021.01.24
  • www.youtube.com
How to configure your Raspberry PI 4 to perform autonomous driving object detection on the road! Special thanks to EdjeElectronics and with his tutorials, fo...
 

So führen Sie TensorFlow Lite auf Raspberry Pi zur Objekterkennung aus



So führen Sie TensorFlow Lite auf Raspberry Pi zur Objekterkennung aus

Das Tutorial erklärt, wie man TensorFlow Lite auf einem Raspberry Pi zur Objekterkennung einrichtet. Dies umfasst das Aktualisieren des Pi, das Aktivieren der Kameraschnittstelle, das Herunterladen des GitHub-Repositorys, das Erstellen einer virtuellen Umgebung, das Installieren von TensorFlow und OpenCV und das Ausführen eines Shell-Skripts, um alle erforderlichen Pakete und Abhängigkeiten zu installieren. Benutzer können ein von Google bereitgestelltes Beispielmodell herunterladen oder ihr eigenes benutzerdefiniertes Modell trainieren. Sobald das Modell fertig ist, können Benutzer einen Code auf Python 3 ausführen, um ihr Echtzeit-Webcam-Erkennungsskript sowie die Erkennung von Videos und Bildern anzuzeigen. Die verbesserte Geschwindigkeit von TensorFlow Lite macht es nützlich für Echtzeit-Erkennungsanwendungen wie intelligente Kameras oder Alarmsysteme. Der Schöpfer erwähnt auch sein eigenes Haustierdetektor-Projekt und ermutigt die Zuschauer, auf ihr nächstes Video über die Einrichtung des Coral USB-Beschleunigers zu warten.

  • 00:00:00 In diesem Abschnitt gibt das Video-Tutorial eine Schritt-für-Schritt-Anleitung zum Einrichten von TensorFlow Lite auf einem Raspberry Pi für die Objekterkennung. TensorFlow Lite ist ein leichtgewichtiges Modell für maschinelles Lernen, das für die Ausführung auf leistungsschwachen Geräten wie dem Pi optimiert ist, mit schnelleren Inferenzzeiten und weniger erforderlicher Rechenleistung. Das Tutorial umfasst das Aktualisieren des Pi, das Aktivieren der Kameraschnittstelle, das Herunterladen des GitHub-Repositorys, das Erstellen einer virtuellen Umgebung, das Installieren von TensorFlow und OpenCV sowie das Ausführen eines Shell-Skripts zum Installieren aller erforderlichen Pakete und Abhängigkeiten. Das Video enthält auch Tipps zum Umgang mit Fehlern und zum Erhalten von Hilfe, und der GitHub-Leitfaden enthält eine Liste häufiger Fehler und Lösungen.

  • 00:05:00 In diesem Abschnitt erklärt der Referent, wie das Erkennungsmodell für TensorFlow Lite eingerichtet wird. Benutzer können entweder ein von Google bereitgestelltes Beispielmodell herunterladen oder ihr eigenes benutzerdefiniertes Modell trainieren. Das Beispielmodell von Google ist ein quantisiertes SSD-Mobilnetzmodell, das auf dem MS-Cocoa-Datensatz trainiert wurde und es ihm ermöglicht, 80 häufig vorkommende Objekte mit minimalem Genauigkeitsabfall zu erkennen. Um das Beispielmodell herunterzuladen, können Benutzer mit der rechten Maustaste auf den Link klicken
    in der Beschreibung und führen Sie es auf dem Terminal aus, indem Sie "W git" zum Herunterladen und "unzip" zum Extrahieren verwenden. Darüber hinaus stellt der Referent auf GitHub eine schriftliche Anleitung für Benutzer bereit, die ein Erkennungsmodell trainieren und in TensorFlow Lite konvertieren möchten. Sobald das Modell fertig ist, können Benutzer einen Code auf Python 3 ausführen, um ihr Echtzeit-Webcam-Erkennungsskript sowie die Erkennung von Videos und Bildern anzuzeigen. Der Redner erwähnte auch, dass er in seinem nächsten Video erklären wird, wie man die Erkennungsgeschwindigkeit enorm steigern kann, indem man den Choral-USB-Beschleuniger von Google verwendet.

  • 00:10:00 In diesem Abschnitt erwähnt der Videoersteller, dass die verbesserte Geschwindigkeit von TensorFlow Lite es für Echtzeit-Erkennungsanwendungen wie intelligente Kameras oder Alarmsysteme nützlich macht. Sie erwähnen auch ihr eigenes Projekt, ein Tierdetektor-Video, in dem sie Objekterkennung verwendet haben, um sie zu warnen, wenn ihre Katze nach draußen gelassen werden möchte, und sagen, dass sie weitere TensorFlow-Computer-Vision-Projekte veröffentlichen werden. Abschließend danken sie den Zuschauern für das Ansehen und ermutigen sie, auf ihr nächstes Video zur Einrichtung des Coral USB-Beschleunigers zu warten.
How To Run TensorFlow Lite on Raspberry Pi for Object Detection
How To Run TensorFlow Lite on Raspberry Pi for Object Detection
  • 2019.11.12
  • www.youtube.com
TensorFlow Lite is a framework for running lightweight machine learning models, and it's perfect for low-power devices like the Raspberry Pi! This video show...