Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Konvertieren des Tensorflow-Modells in das ONNX-Format – Erkennung menschlicher Emotionen
Konvertieren des Tensorflow-Modells in das Onnx-Format - Erkennung menschlicher Emotionen
Das Video erörtert die Vorteile der Konvertierung vortrainierter TensorFlow-Modelle in das ONNX-Format, das ein gemeinsames Format für die Darstellung von Modellen für maschinelles Lernen bietet, das mithilfe der ONNX-Laufzeit auf verschiedenen Hardwareplattformen interpretiert werden kann. Durch die Konvertierung von Modellen können Entwickler sie effizienter in verschiedenen Frameworks ausführen oder einfacher mit anderen Praktikern verwenden. Das Video demonstriert den Prozess der Konvertierung von TensorFlow- und Keras-Modellen in das ONNX-Format mithilfe von Tools und Spezifikationen, die im ONNX-GitHub-Repository bereitgestellt werden, und zeigt, wie das ONNX-Format das Modell optimiert und die Laufzeit für Vorhersagen reduziert. Das ONNX-Modell übertrifft auch das TensorFlow-Modell für die Erkennung menschlicher Emotionen auf einer CPU.
So konvertieren Sie fast jedes PyTorch-Modell in ONNX und servieren es mit einem Kolben
So konvertieren Sie fast jedes PyTorch-Modell in ONNX und servieren es mit einem Kolben
Das Video-Tutorial zeigt, wie Sie ein PyTorch-Modell in das ONNX-Format konvertieren und es mit Flask bereitstellen. Der Präsentator beginnt mit dem Importieren des Datensatzes und der Definition des Modells unter Verwendung paralleler Daten, gefolgt vom Laden der Modellgewichte und dem Exportieren nach ONNX. Das Video zeigt, wie ein Flask-Endpunkt erstellt wird, um das ONNX-Modell zu bedienen, gefolgt von der Konvertierung von Tensoren in Numpy-Arrays und dem Abrufen der Ausgabe aus dem Modell. Der Sprecher wendet auch die Sigmoid-Funktion auf die Modellausgabe an, um sie in eine Wahrscheinlichkeit zwischen 0 und 1 umzuwandeln. Schließlich schalten sie das Gerät für einen fairen Vergleich auf CPU um und demonstrieren die schnellere Reaktionszeit der API. Das Video schließt mit der Feststellung, dass es viele Möglichkeiten gibt, ONNX-Modelle für eine verbesserte Leistung zu optimieren, und lädt die Zuschauer ein, ihr Feedback im Kommentarbereich zu teilen.
So konvertieren Sie das PyTorch-Modell in Tensorflow | onnx.ai | Maschinelles Lernen | Datenmagie
So konvertieren Sie das PyTorch-Modell in Tensorflow | onnx.ai | Maschinelles Lernen | Datenmagie
In diesem Video demonstriert der Moderator, wie die Open Neural Network Exchange (ONNX)-Bibliothek verwendet wird, um ein PyTorch-Modell in ein TensorFlow-Modell zu konvertieren. Die Vorteile und die Verwendung der ONNX-Bibliothek werden ausführlich erörtert, wobei ein PyTorch-Modell, das zur Identifizierung handgeschriebener Zahlen erstellt wurde, als Beispiel verwendet wird. Es wird gezeigt, wie das Modell trainiert und in das ONNX-Format konvertiert wird, bevor es zur Vorhersage von Beispielbildern in TensorFlow geladen wird. Das resultierende TensorFlow-Modell wird als .pb-Datei gespeichert und zeigt, wie die ONNX-Bibliothek verwendet werden kann, um jedes PyTorch-Modell in TensorFlow zu konvertieren.
So konvertieren Sie Tensorflow-Modelle/tflite-Modelle in ONNX
So konvertieren Sie Tensorflow-Modelle/tflite-Modelle in ONNX, um sie in Unity zu importieren
tf2onnx konvertiert TensorFlow- (tf-1.x oder tf-2.x), tf.keras- und tflite-Modelle über die Befehlszeile oder die Python-API in ONNX.
https://github.com/onnx/tensorflow-onnx
Konvertieren Sie das Pytorch-Modell (Pytorch-Blitz) in das Onnx-Modell mit variabler Stapelgröße
Konvertieren Sie das Pytorch-Modell (Pytorch Lightning) in das ONNX-Modell mit variabler Stapelgröße
In diesem Tutorial erfahren Sie, wie Sie das Pytorch-Modell (Pytorch-Blitz) in das ONNX-Modell mit variabler/dynamischer Stapelgröße konvertieren.
PyTorch ONNX-Exportunterstützung – Lara Haidar, Microsoft
PyTorch ONNX-Exportunterstützung – Lara Haidar, Microsoft
Lara Haidar von Microsoft erläutert die Vorteile der PyTorch ONNX-Modellexportfunktion, mit der Modelle aus der Forschung in die Produktion verschoben und auf unterschiedlicher Hardware ausgeführt werden können. Sie gibt an, dass die ONNX-Laufzeit sehr beliebt geworden ist, da Millionen von Geräten sie jetzt verwenden und bemerkenswerte Leistungssteigerungen erzielen. Darüber hinaus umfasst der ONNX Export Support jetzt Verbesserungen in der Modellabdeckung, Leistungsoptimierung und Backend-Unterstützung, um sicherzustellen, dass Modelle auf verschiedenen Versionen mit unterschiedlichen Backends ausgeführt werden können. Schließlich ermutigt Lara die Benutzer, die exportierten Modelle zu testen und Feedback zu geben, um die Funktion weiter zu verbessern.
296 – Konvertieren des von Keras trainierten Modells in das ONNX-Format – Beispiel für die Bildklassifizierung
296 – Konvertieren des von Keras trainierten Modells in das ONNX-Format – Beispiel für die Bildklassifizierung
Das Video-Tutorial behandelt den Prozess der Konvertierung eines von Keras trainierten Bildklassifizierungsmodells in das ONNX-Format für die Bereitstellung. Der Referent zeigt, wie man ein Modell mit Keras erstellt, kompiliert und als H5-Datei speichert, bevor man es in das ONNX-Format konvertiert. Sie bieten eine Schritt-für-Schritt-Anleitung zum Importieren der erforderlichen Bibliotheken für die ONNX-Konvertierung, zum Laden des gespeicherten H5-Modells und zum Konvertieren in das ONNX-Format mit einer einzigen Codezeile. Der Referent demonstriert dann, wie das resultierende ONNX-Modell in einer ONNX-Laufzeitsitzung verwendet wird, zeigt, wie Klassen in einem Bildklassifizierungsbeispiel mit ONNX vorhergesagt werden, und vergleicht die Wahrscheinlichkeiten der Vorhersagen mit ONNX und Keras. Der Referent betont die Effektivität und Vorteile der Verwendung von ONNX für die Bereitstellung und weist auf die Einfachheit der Konvertierung einer vorhandenen HDF-Datei in ONNX hin.
297 – Konvertieren des von Keras trainierten Modells in das ONNX-Format – Semantische Segmentierung
297 – Konvertieren des von Keras trainierten Modells in das ONNX-Format – Semantische Segmentierung
Dieses Video konzentriert sich auf die Konvertierung eines von Keras trainierten Modells in das ONNX-Format zur semantischen Segmentierung von elektronenmikroskopischen Bildern von Mitochondrien. Der Moderator bietet detaillierte Schritte zum Zuschneiden und Laden von Bildern, zur Verwendung von Datenerweiterungstechniken, zum Definieren von Generatoren für Training und Validierung sowie zum Trainieren und Speichern des Modells. Das Video behandelt auch die Konvertierung des Modells in das ONNX-Format mithilfe der tf2onnx.convert-Bibliothek und die Verwendung des ONNX-Modells für die Vorhersage. Der Moderator hebt Best Practices für Training und Konversion hervor und stellt Links zu seinen früheren Videos zur Multi-Class-Segmentierung bereit. Das Tutorial endet damit, dass der Moderator erklärt, dass dies das Ende der ONNX-Reihe ist und dass er sich im nächsten Video auf andere Themen konzentrieren wird.
Verwendung von ONNX mit Qualcomm-betriebenen Geräten von Smartphones bis zum Cloud-Edge und allem dazwischen
Verwendung von ONNX mit Qualcomm-betriebenen Geräten von Smartphones bis zum Cloud-Edge und allem dazwischen
Die Verwendung des ONNX-Austauschformats in der gesamten Gerätepalette von Qualcomm trägt dazu bei, Modelle auf allen ihren Geräten zu unterstützen. Qualcomm sieht sich schwierigen Architekturen gegenüber, wenn es darum geht, verschiedene Geräte und unterschiedliche Modelle zu unterstützen, aber ONNX hilft, Skalierbarkeit über vertikale, leistungsstarke Geräte und Regionen hinweg zu erreichen. Qualcomm hat mit Microsoft zusammengearbeitet, um einen ONNX-Laufzeitausführungsanbieter zu erstellen, der es ermöglicht, ONNX-Modelle auf Qualcomm-betriebenen Geräten auszuführen, einschließlich solchen, auf denen Windows ausgeführt wird. Der einheitliche Software-Stack umfasst eine Bibliothek namens KI-Engine, die das ONNX-Modell dynamisch an verschiedene Beschleuniger weiterleiten kann, um die beste Leistung zu erzielen, wobei zusätzliche Tools wie Profiler, Compiler und Analysatoren zur Optimierung von Modellen verfügbar sind.
ONNX Runtime IoT-Bereitstellung auf Raspberry Pi
ONNX Runtime IoT-Bereitstellung auf Raspberry Pi
In diesem Video mit dem Titel „ONNX Runtime IoT Deployment on Raspberry Pi“ demonstriert der Moderator, wie eine ONNX Runtime für ein Computer-Vision-Modell auf einem Raspberry Pi mithilfe eines für das Gerät optimierten Mobilenet-Modells bereitgestellt wird. Das Video behandelt den Prozess der Verbindung mit dem Raspberry Pi mit dem VNC-Viewer, dessen Konfiguration und die Durchführung eines Kameratests mit OpenCV und Python. Der Präsentator erfasst ein Bild, führt die Inferenz durch und druckt die fünf besten vorhergesagten Klassen aus, die den Füllfederhalter im Bild korrekt identifizieren. Insgesamt bietet das Video eine hilfreiche Anleitung für die Bereitstellung von ONNX Runtime auf einem Raspberry Pi für Computer-Vision-Anwendungen.