Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Stellen Sie ML-Modelle mit Azure Functions und ONNX Runtime bereit
Stellen Sie ML-Modelle mit Azure Functions und ONNX Runtime bereit
Das Video zeigt, wie Sie ein maschinelles Lernmodell mithilfe von ONNX Runtime und Azure Functions in VS Code bereitstellen. Der Prozess umfasst das Erstellen eines Azure-Funktionsprojekts, das Aktualisieren des Codes mit dem Bewertungsskript, das Laden des Modells aus dem Modellpfad, das Erstellen einer Inferenzsitzung mit ONNX Runtime und das Zurückgeben der Ausgabe. Das Video zeigt auch, wie Sie die Funktion in Azure bereitstellen und dort testen. Diese Methode ermöglicht eine effiziente Bereitstellung von Modellen über Azure Functions und die ONNX-Laufzeit und ermöglicht einen einfachen Zugriff auf die Ergebnisse.
Bereitstellung auf dem Desktop mit ONNX
Bereitstellung auf dem Desktop mit ONNX
Im Video „Deploying on Desktop with ONNX“ erörtert Alexander Zhang die Herausforderungen der Bereitstellung auf dem Desktop und die von ONNX angebotenen Lösungen. Die Unterstützung von Desktops hat ihre Herausforderungen, da es weniger Kontrolle über Systemeinschränkungen auf der GPU oder dem Betriebssystem sowie eine erhebliche Vielfalt an Desktop-GPUs gibt. Um diesen Herausforderungen zu begegnen, verlässt sich Alexander auf unterschiedliche Inferenzbibliotheken für jeden der von Topaz Labs unterstützten Hardwareanbieter. ONNX wird verwendet, um für alle diese Bibliotheken dasselbe Modell anzugeben, wodurch relativ konsistente Ergebnisse auf unterschiedlicher Hardware bereitgestellt werden, während manuelle Arbeit an jedem Modell eingespart wird. ONNX-Konvertierungen können jedoch verschiedene Probleme verursachen, wie z. B. Mehrdeutigkeit, Inkonsistenz und Qualitätsabweichungen, sodass Entwickler Testkonvertierungen durchführen und explizit die neuesten ONNX-Offsets verwenden müssen. Um den Durchsatz durch Batching zu maximieren und potenziell auf mehreren Geräten und Bibliotheken parallel auszuführen, teilen sie Bilder in Blöcke auf, wählen basierend auf dem VRAM eine geeignete Größe aus und führen die Blöcke dann durch Inferenz aus.
Bereitstellung von ONNX-Modellen auf Flink – Isaac Mckillen-Godfried
Bereitstellung von ONNX-Modellen auf Flink – Isaac Mckillen-Godfried
Isaac McKillen-Godfried erörtert die Herausforderungen bei der Integration modernster Machine-Learning-Modelle aus Forschungsumgebungen in die Produktion für eine effektive Nutzung. Ziel des Vortrags ist es, den Transport von Modellen aus Forschungsumgebungen in die Produktion zu erleichtern und die Einbindung von State-of-the-Art-Modellen in verschiedene Plattformen zu ermöglichen. Er erläutert die Vorteile des ONNX-Formats und die verschiedenen Möglichkeiten, Deep-Learning-Modelle in Java zu integrieren. Darüber hinaus erörtert er die Bereitstellung von ONNX-Modellen auf Flink mit Jep, einem in Java geschriebenen Python-Interpreter, und erläutert ein Open-Source-Projekt, das es ermöglicht, Daten aus dem Flink-Twitter-Connector zu konsumieren und dann nicht-englische Tweets zu filtern. Der Vortrag beleuchtet auch die aktuelle reine CPU-Implementierung der Bereitstellung von ONNX-Modellen auf Flink und das Potenzial für zukünftige GPU- oder Hybrid-Implementierungen.
Bereitstellen des Tiny YOLOv2 ONNX-Modells auf Jetson Nano mit DeepStream
Bereitstellen des Tiny YOLOv2 ONNX-Modells auf Jetson Nano mit DeepStream
Dieses Video zeigt die Effizienz der Verwendung eines vortrainierten Tiny YOLOv2-Modells im ONNX-Format zur gleichzeitigen Verarbeitung von vier Videostreams.
Die Streams stammen aus vier verschiedenen Dateien und werden auf Jetson Nano mit dem DeepStream SDK verarbeitet. Bei der parallelen Verarbeitung aller vier Videos erreichte das System eine FPS von etwa 6,7.
https://github.com/thatbrguy/Deep-Stream-ONNX
Die ONNX Runtime-Inferenz-Engine ist in der Lage, Modelle für maschinelles Lernen in verschiedenen Umgebungen auszuführen
ONNX-Laufzeit
Die ONNX Runtime ist eine Open-Source-Inferenz-Engine, die für Leistung, Skalierbarkeit und Erweiterbarkeit optimiert ist und in der Lage ist, neue Operatoren auszuführen, bevor sie standardisiert werden. Das ONNX-Format ermöglicht die einfache Darstellung und Bereitstellung von Modellen, die mit bevorzugten Tools auf gemeinsame Weise entwickelt wurden. Microsoft ist eine Partnerschaft mit Xilinx eingegangen, um den Ausführungsanbieter für die Vitis-KI-Softwarebibliothek zu entwickeln, die KI-Inferenzen und -Beschleunigung auf Xilinx-Hardwareplattformen ermöglicht. Das Vitis AI-Toolkit besteht aus IP-Tools, Bibliotheken, Modellen und Beispieldesigns für FPGA-Entwickler, wobei Benchmark-Zahlen die Spitzenbeschleunigung für raumbezogene Bildgebungslösungen zeigen. Der Vitis-KI-Ausführungsanbieter kann aus der Quelle erstellt oder über eine vorgefertigte Softwarebibliothek bereitgestellt werden, die bald im Azure Marketplace veröffentlicht wird.
Stellen Sie Transformer-Modelle im Browser mit #ONNXRuntime bereit
Stellen Sie Transformer-Modelle im Browser mit #ONNXRuntime bereit
Das Video zeigt, wie ein optimiertes BERT-Modell mithilfe von ONNXRuntime in einem Browser optimiert und bereitgestellt wird. Der Moderator zeigt, wie Sie das PyTorch-Modell mithilfe der Transformers-API in das ONNX-Format konvertieren, ONNXRuntime verwenden, um das Modell zur Größenreduzierung zu quantisieren, und eine Inferenzsitzung erstellen. Das Video behandelt auch die notwendigen Schritte zum Importieren von Paketen in JavaScript mithilfe von WebAssembly und wie Texteingaben durch das transformierte Modell zur Emotionsklassifizierung ausgeführt werden. Trotz einer geringeren Vorhersagegenauigkeit ist die kleinere Modellgröße ideal für die Bereitstellung in einem Browser. Links zum Modell, zu Datensätzen, zum Quellcode und zu einem Blogbeitrag werden bereitgestellt.
Open Neural Network Exchange (ONNX) im Unternehmen: Wie Microsoft maschinelles Lernen skaliert
Open Neural Network Exchange (ONNX) im Unternehmen: Wie Microsoft ML skaliert – BRK3012
Der Open Neural Network Exchange (ONNX) wird als Lösung für Herausforderungen bei der Bereitstellung von Modellen für maschinelles Lernen in der Produktion eingeführt, einschließlich der Verwaltung mehrerer Schulungsframeworks und Bereitstellungsziele, wobei Microsoft ONNX bereits weitgehend für Produkte wie Bing, Bing-Anzeigen und Office 365 einsetzt ONNX ermöglicht die Skalierbarkeit und Wartung von Modellen für maschinelles Lernen sowie erhebliche Leistungsverbesserungen und Kosteneinsparungen, die auf die Verwendung von Hardwarebeschleunigern wie GPUs zurückzuführen sind. Darüber hinaus umfasst das ONNX-Ökosystem Partner wie Intel für die Laufzeitoptimierung mit leicht verfügbaren Entwicklungskits und Quantisierungstechniken, die verfügbar sind, um FP32-Modelle in Datentypen mit geringerer Genauigkeit umzuwandeln, was zu einer höheren Effizienz führt. Die Referenten heben auch die Vorteile der Verwendung von ONNX für Edge-Computing hervor, da die Laufzeit flexibel ist und Modelle auf verschiedenen Hardwareplattformen bereitgestellt werden können.
#OpenVINO Execution Provider für #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
#OpenVINO Execution Provider für #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
Der OpenVINO Execution Provider für ONNX Runtime war das Hauptdiskussionsthema in diesem wöchentlichen OpenCV-Webinar. Das Produkt zielt darauf ab, die Leistung für ONNX-Modelle auf Intel-Hardware zu beschleunigen und gleichzeitig minimalen Aufwand auf Seiten des Benutzers zu erfordern. Das Webinar diskutierte die Herausforderungen beim Einsatz von Deep-Learning-Modellen in der realen Welt, wobei OpenVINO als Lösung für diese Herausforderungen vorgestellt wurde. OpenVINO kann KI-Modelle für eine effiziente Leistung auf verschiedenen Geräten und Hardware optimieren. Die ONNX-Laufzeit, ein Open-Source-Projekt zur Beschleunigung der maschinellen Lerninferenz, wurde ausführlich diskutiert. Das Webinar präsentierte auch eine Demonstration der Leistungsverbesserung, die mit dem OpenVINO Execution Provider für ONNX Runtime erzielt wurde, sowie seine Funktionen wie Multithread-Inferenz, volle Unterstützung für verschiedene Plugins und Modell-Caching. Auch die Integration zwischen OpenVINO und PyTorch durch den OpenVINO Execution Provider wurde diskutiert. Die Referenten beantworteten Fragen aus dem Publikum zu Themen wie Kompatibilität mit ARM-Geräten und potenzielle Leistungs- oder Genauigkeitsverluste bei der Verwendung von ONNX-Austauschformaten.
Importieren von neuronalen Netzen mit ONNX
Importieren von neuronalen Netzen mit ONNX
Dieses Video untersucht die Bedeutung des Projekts Open Neural Network Exchange (ONNX) für maschinelles Lernen und seine Vorteile bei der Modellkonvertierung über verschiedene Tools hinweg. Der Referent erörtert die Herausforderungen beim manuellen Laden von Modellen oder der Verwendung automatisierter Tools und wie ONNX dieses Problem durch sein graphbasiertes Rechenmodell beseitigt. Der Referent hebt auch die Vorteile von ONNX bei der manuellen Konvertierung komplexer Modelle und die Kompatibilität mit verschiedenen Frameworks hervor. Das Video geht auf parametrisierte Netzmodelle, die Struktur von ONNX und potenzielle Herausforderungen ein, die bei der Nutzung des Projekts auftreten können. Trotz dieser Herausforderungen glaubt der Sprecher, dass ONNX aufgrund seiner erheblichen Unterstützung durch verschiedene Unternehmen gedeihen wird.
Importieren und Exportieren von neuronalen Netzwerken mit ONNX
Importieren und Exportieren von neuronalen Netzwerken mit ONNX
Das Video demonstriert die Verwendung von ONNX als plattformübergreifende Spezifikation und Dateiformat für maschinelle Lernmodelle, um Modelle zwischen verschiedenen neuronalen Netzwerk-Frameworks auszutauschen. Die Referenten zeigen, wie man neuronale Netze mit ONNX über Mathematica und Keras importiert und exportiert und wie man Metadaten prüft und importiert sowie Metadaten beim Export festlegt. Sie diskutieren auch den Export und Import von Modellen zwischen Core ML, PyTorch und Wolfram Language und die Bedeutung der Verwendung des richtigen Offsets während der Konvertierung. Die Referenten diskutieren die Zukunft von ONNX, einschließlich der Erweiterung der Unterstützung für Import und Export, der Verbesserung schwieriger Fälle für den Importeur und der Ermöglichung des Exports in mehrere Operator-Set-Versionen. Darüber hinaus erklärt der Referent den Unterschied zwischen ONNX und MXNet und gibt Informationen darüber, wie Sie überprüfen können, welche Funktionen mit internen Dienstprogrammen nach ONNX exportiert werden können.