Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
So installieren Sie ONNX Runtime auf Raspberry Pi
So installieren Sie ONNX Runtime auf Raspberry Pi
Das Video bietet eine detaillierte Anleitung zur Installation von ONNX Runtime auf Raspberry Pi. Nach dem Herunterladen und Installieren von Raspbian Stretch auf dem Raspberry Pi muss der Benutzer Docker und das statische QMU-Benutzerpaket installieren, ein Build-Verzeichnis erstellen und einen Befehl ausführen, um das ONNX Runtime Wheel-Paket abzurufen, das über pip installiert werden kann. Das Video erklärt auch, wie ONNX Runtime mit einem tiefen neuronalen Netzwerk getestet wird, das auf dem MNIST-Datensatz trainiert wurde, und wie die Zeit berechnet wird, die zum Ausführen einer Inferenzsitzung für ein einzelnes Bild benötigt wird. Der Redner merkt an, dass der Prozess langwierig und kompliziert sein kann, sich aber für die Fähigkeit lohnt, neuronale Netze auf Edge-Geräten bereitzustellen und zu testen.
Bildklassifizierung auf Raspberry Pi mit verschiedenen MobileNet ONNX-Modellen
Bildklassifizierung auf Raspberry Pi mit verschiedenen MobileNet ONNX-Modellen
Führen Sie die Bildklassifizierung auf Raspberry Pi 4 zur ONNX-Laufzeit mit 3 Mustern von MobileNet V1 ONNX-Modellen durch.
Die Klassifizierung erfolgt je nach verwendetem Modell in 7 ms.
SSDLite Mobilenet V2 auf ONNX Runtime läuft auf Raspberry Pi 4
SSDLite Mobilenet V2 auf ONNX Runtime läuft auf Raspberry Pi 4
SSDLite Mobilenet V2 auf ONNX Runtime läuft auf Raspberry Pi 4 ohne Hardwarebeschleunigung.
SSDLite Mobilenet V1 0.75 Tiefe auf ONNX Runtime läuft auf Raspberry Pi 4
SSDLite Mobilenet V1 0.75 Tiefe auf ONNX Runtime läuft auf Raspberry Pi 4
SSDLite Mobilenet V1 0.75 Tiefe auf ONNX Runtime läuft auf Raspberry Pi 4 ohne Hardwarebeschleunigung.
Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4
Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4
Tiny-YOLOv3 auf ONNX Runtime funktioniert auf Raspberry Pi 4 ohne Hardwarebeschleunigung.
Raspberry Pi 4-Klassifizierung und Objekterkennung mit optimierter ONNX-Laufzeit
Raspberry Pi 4-Klassifizierung und Objekterkennung mit optimierter ONNX-Laufzeit
Bildklassifizierung auf Raspberry Pi 4 zur ONNX-Laufzeit durchführen:
Objekterkennung für Raspberry Pi 4 mit optimierter ONNX-Laufzeit (Ende 2020)
Objekterkennung für Raspberry Pi 4 mit optimierter ONNX-Laufzeit (Ende 2020)
Hardware: Raspberry Pi 4B
Betriebssystem: Raspberry Pi-Betriebssystem (32 Bit)
Software: ONNX Runtime 1.4.0 mit benutzerdefiniertem Ausführungsanbieter (CPU-beschleunigt)
Modelle:
http://download.tensorflow.org/models/object_detection/ssd_mobilenet_v1_0.75_depth_300x300_coco14_sync_2018_07_03.tar.gz
http://download.tensorflow.org/models/object_detection/ssdlite_mobilenet_v2_coco_2018_05_09.tar.gz
https://github.com/onnx/models/blob/main/vision/object_detection_segmentation/tiny-yolov3/model/tiny-yolov3-11.onnx
Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4
Tiny-YOLOv3 auf ONNX Runtime arbeitet auf Raspberry Pi 4
Tiny-YOLOv3 auf ONNX Runtime funktioniert auf Raspberry Pi 4 ohne Hardwarebeschleunigung.
Autonomes Fahren Objekterkennung auf dem Raspberry Pi 4!
Autonomes Fahren Objekterkennung auf dem Raspberry Pi 4!
In diesem Tutorial demonstriert der Ausbilder die Schritte, die erforderlich sind, um den Raspberry Pi 4 für die Objekterkennung mit einem für das autonome Fahren trainierten neuronalen Netzwerk zu konfigurieren. Dazu gehören das Klonen des Repositorys, das Einrichten einer virtuellen Umgebung, das Installieren von Abhängigkeiten wie GPIO, OpenCV und TensorFlow und das Konfigurieren des Raspberry Pi-Kameramoduls. Als Nächstes demonstriert der Kursleiter das Anschließen einer LED und eines Druckknopfs an den Pi und das Ausführen eines Python-Skripts zum Erfassen von Bildern mit Objekterkennung. Schließlich kann der Benutzer Anpassungen an der Batch-RC-Datei vornehmen, um das Skript beim Booten auszuführen und Filmmaterial mit den im Ausgabepfad gespeicherten Bildern aufzuzeichnen.
So führen Sie TensorFlow Lite auf Raspberry Pi zur Objekterkennung aus
So führen Sie TensorFlow Lite auf Raspberry Pi zur Objekterkennung aus
Das Tutorial erklärt, wie man TensorFlow Lite auf einem Raspberry Pi zur Objekterkennung einrichtet. Dies umfasst das Aktualisieren des Pi, das Aktivieren der Kameraschnittstelle, das Herunterladen des GitHub-Repositorys, das Erstellen einer virtuellen Umgebung, das Installieren von TensorFlow und OpenCV und das Ausführen eines Shell-Skripts, um alle erforderlichen Pakete und Abhängigkeiten zu installieren. Benutzer können ein von Google bereitgestelltes Beispielmodell herunterladen oder ihr eigenes benutzerdefiniertes Modell trainieren. Sobald das Modell fertig ist, können Benutzer einen Code auf Python 3 ausführen, um ihr Echtzeit-Webcam-Erkennungsskript sowie die Erkennung von Videos und Bildern anzuzeigen. Die verbesserte Geschwindigkeit von TensorFlow Lite macht es nützlich für Echtzeit-Erkennungsanwendungen wie intelligente Kameras oder Alarmsysteme. Der Schöpfer erwähnt auch sein eigenes Haustierdetektor-Projekt und ermutigt die Zuschauer, auf ihr nächstes Video über die Einrichtung des Coral USB-Beschleunigers zu warten.
in der Beschreibung und führen Sie es auf dem Terminal aus, indem Sie "W git" zum Herunterladen und "unzip" zum Extrahieren verwenden. Darüber hinaus stellt der Referent auf GitHub eine schriftliche Anleitung für Benutzer bereit, die ein Erkennungsmodell trainieren und in TensorFlow Lite konvertieren möchten. Sobald das Modell fertig ist, können Benutzer einen Code auf Python 3 ausführen, um ihr Echtzeit-Webcam-Erkennungsskript sowie die Erkennung von Videos und Bildern anzuzeigen. Der Redner erwähnte auch, dass er in seinem nächsten Video erklären wird, wie man die Erkennungsgeschwindigkeit enorm steigern kann, indem man den Choral-USB-Beschleuniger von Google verwendet.