Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
ONNX: Vergangenheit, Gegenwart und Zukunft – Jim Spohrer, IBM & Prasanth Pulavarthi, Microsoft
ONNX: Vergangenheit, Gegenwart und Zukunft – Jim Spohrer, IBM & Prasanth Pulavarthi, Microsoft
Im Video „ONNX: Past, Present, and Future“ diskutieren Jim Spohrer von IBM und Prasanth Pulavarthi von Microsoft über das Wachstum und die Zukunft des Open-Source-KI-Frameworks ONNX. Sie betonen die Bedeutung der Standardisierung der Bereitstellung von KI-Modellen durch das von ONNX bereitgestellte Austauschformat, das eine nahtlose Optimierung über verschiedene Deep-Learning-Frameworks hinweg ermöglicht. Darüber hinaus diskutieren sie die jüngsten Entwicklungen in der Fähigkeit der ONNX-Laufzeit, mit verschiedenen Hardwarebeschleunigern zu arbeiten, und bieten Tipps und Ressourcen für den Einstieg in ONNX. Die Referenten beantworten Fragen des Publikums zu den Fähigkeiten von ONNX, der kommerziellen Bereitstellung und den bevorstehenden Zertifizierungsplänen und fordern die Zuschauer auf, sich an der ONNX-Community zu beteiligen.
Onnx-mlir: ein MLIR-basierter Compiler für ONNX-Modelle – der neueste Status
Onnx-mlir: ein MLIR-basierter Compiler für ONNX-Modelle – der neueste Status
Onnx-mlir ist ein Compiler für ONNX-Modelle, der MLIR und LLVM zur Optimierung und Codegenerierung verwendet und CPUs und benutzerdefinierte Beschleuniger unterstützt. Dong Lin von IBM Research betont die Bedeutung gründlicher Tests und hebt die Verwendung des Frameworks in Online-Scoring-Services und Model-Serving-Frameworks hervor. Onnx-mlir verfügt über mehrere Dialekte für CPU und Beschleuniger mit Optimierungen auf verschiedenen Ebenen und hat gezeigt, dass es ein Modell zur Erkennung von Kreditkartenbetrug mit einem IBM-Beschleuniger um das 11-fache beschleunigt. Das Projekt begrüßt Community-Beiträge zur Optimierung wichtiger Betreiber und zur Unterstützung von Nischen-ML-Betreibern und anderen Beschleunigern wie GPUs.
PFVM – Ein Neural Network Compiler, der ONNX als Zwischendarstellung verwendet
PFVM – Ein Neural Network Compiler, der ONNX als Zwischendarstellung verwendet
In diesem Video stellt Zijian Xu von Preferred Networks PFVM vor, einen Compiler für neuronale Netzwerke, der ONNX als Zwischendarstellung für die Moduloptimierung verwendet. Er erläutert, wie PFVM exportiertes ONNX als Eingabe verwendet, optimiert und das Modell mit angegebenen Backends unter Verwendung von APIs von Drittanbietern ausführt. Genji beschreibt die Bedeutung der Optimierung, einschließlich der Erweiterung von ONNX mit Kundenbetreibern, Formrückschlüssen und Graphenvereinfachung. Er geht auch auf die Einschränkungen aktueller ONNX-Compiler ein, einschließlich der Notwendigkeit für mehr Unterstützung im dynamischen Fall, und schlägt vor, mehr Inferenzfunktionen zu implementieren. Zijian Xu betont, wie wichtig es ist, den Overhead des Kernel-Bereichs und die Speichernutzung für schnellere Berechnungen zu reduzieren, und schlägt vor, statische Informationen zu verwenden, die auf Maschinen verfügbar sind, um die Inferenz zu planen und zu gestalten.
YVR18-332 TVM-Compiler-Stack und ONNX-Unterstützung
YVR18-332 TVM-Compiler-Stack und ONNX-Unterstützung
Das Video YVR18-332 behandelt den TVM-Compiler-Stack, einen von der Community geführten Deep-Learning-Stack, der eine Reihe von Hardware und Front-Ends unterstützt, einschließlich ONNX. Der Redner erörtert, wie TVM Modelle auf Stereoebene optimieren kann, sodass Entwickler den Suchraum erkunden und die beste Konfiguration finden können. Sie diskutieren auch die automatischen Optimierungen, die TVM bietet, einschließlich Loop-Transformationen und GPU-Beschleunigung. Der Referent spricht über die TVM-Roadmap, die die Aktivierung der 8-Bit-Unterstützung und die automatische Optimierung auf Diagrammebene umfasst. Darüber hinaus diskutieren sie die ONNX-TV-Schnittstelle und die Notwendigkeit, die Standardschnittstelle für alle Ökosysteme zu vereinheitlichen. Schließlich pausiert das Video zum Mittagessen.
entwickelt, um den Suchraum zu erkunden und die beste Konfiguration zu finden.
.NET MAUI Community Standup – ONNX Runtime mit Mike Parker
.NET MAUI Community Standup – ONNX Runtime mit Mike Parker
In diesem Video stellt der Gastredner Mike Parker die ONNX-Laufzeitumgebung vor, ein Open-Source- und plattformübergreifendes Tool, das die Optimierung und Beschleunigung des maschinellen Lernens über mehrere Hardwareplattformen hinweg ermöglicht. Parker erklärt die Bedeutung der Verwendung der ONNX-Laufzeit und zeigt, wie sie in .NET-MAUI-Projekten verwendet werden kann, um Bilder mithilfe des MobileNet-Objektklassifizierungsmodells zu klassifizieren. Die Gastgeber und Parker erörtern die Vorteile der Ausführung von Modellen für maschinelles Lernen auf einem Gerät und die Möglichkeit, Backend-Infrastrukturkosten zu vermeiden. Darüber hinaus teilt das Team hilfreiche Ressourcen, darunter Parkers Blog zu diesem Thema und ihre Partnerschaft mit Al Blount für .NET MAUI- und Xamarin-Support.
[Virtuelles Treffen] Interoperable KI: ONNX und ONNXRuntime in C++ (M. Arena, M. Verasani)
[Virtuelles Treffen] Interoperable KI: ONNX und ONNXRuntime in C++ (M. Arena, M. Verasani)
Das Video erörtert die Herausforderungen bei der Verwendung verschiedener Frameworks zum Trainieren von Algorithmen für maschinelles Lernen, die zu mangelnder Interoperabilität führen, und stellt ONNX und ONNXRuntime vor, die darauf abzielen, ein universelles Format für Deep-Learning-Modelle zu schaffen. ONNX wandelt neuronale Netze in statische Rechengraphen um und ermöglicht so eine optimierte Leistung während der Inferenz. ONNXRuntime ermöglicht die Konvertierung jedes Frameworks in das ONNX-Format und stellt Beschleunigungsbibliotheken bereit, die für jede Hardwareplattform verwendet werden können. Das Video zeigt Beispiele für die Verwendung von ONNX und ONNXRuntime, diskutiert deren Verwendung in C++ und gibt Ratschläge zum besseren Verständnis des Projekts und seiner Dokumentation.
Marco Arena und Matteo Verasani erörtern auch die Vorteile der Verwendung von ONNX und ONNXRuntime in C++ für maschinelle Lernmodelle und heben die Flexibilität des Frameworks und seine Fähigkeit hervor, Modelle aus verschiedenen Frameworks ohne Leistungseinbußen einfach zu konvertieren. Sie bieten Beispiele für die Konvertierung von Modellen in das ONNX-Format und demonstrieren die Verwendung von ONNXRuntime für den Inferenzmodus, wobei sie Leistungsverbesserungen mit einem klassischen Python-Modell demonstrieren. Darüber hinaus erörtern sie ihre Arbeit mit eingebetteten Systemen und die potenziellen Vorteile des Benchmarkings von ONNXRuntime auf GPUs. Die Redner erwähnen auch zukünftige virtuelle Meetups und drücken die Hoffnung aus, mehr Networking-Möglichkeiten für die Teilnehmer einzubeziehen.
[CppDay20] Interoperable KI: ONNX & ONNXRuntime in C++ (M. Arena, M. Verasani)
[CppDay20] Interoperable KI: ONNX & ONNXRuntime in C++ (M. Arena, M. Verasani)
Die Verwendung von maschinellem Lernen und Deep-Learning-Algorithmen nimmt zu, und es besteht ein Bedarf an Tools, die diese Algorithmen auf verschiedenen Plattformen einsetzen können. Das ONNX-Tool bietet Interoperabilität zwischen verschiedenen Frameworks und Plattformen, sodass Entwickler ihre Algorithmen von einem Framework in ein anderes konvertieren und auf verschiedenen Geräten bereitstellen können, selbst wenn sie mit dem spezifischen Framework oder der Plattform nicht vertraut sind. ONNX Runtime ist eine Inferenz-Engine, die benutzerdefinierte Beschleuniger nutzen kann, um Modelle während der Inferenzphase zu beschleunigen, und die auf eine Vielzahl von Hardwareplattformen abzielen kann. Die Referenten demonstrieren die Verwendung von ONNX und ONNX Runtime in der C++-Programmierung mit Beispielen für lineare Regression und neuronale Netzwerkmodelle. Sie diskutieren auch die Vorteile der Verwendung von ONNX und ONNX Runtime bei der Feinabstimmung der Ausführung eines Netzwerks, der Optimierung der Ladezeit und der Ausführung sequentieller Images.
Beschleunigung des maschinellen Lernens mit ONNX Runtime und Hugging Face
Beschleunigung des maschinellen Lernens mit ONNX Runtime und Hugging Face
Das Video „Accelerating Machine Learning with ONNX Runtime and Hugging Face“ erläutert die Erstellung der Optimum-Bibliothek von Hugging Face, die sich auf die Beschleunigung von Transformatormodellen vom Training bis zur Inferenz durch einfache Anwendung der ONNX-Laufzeit konzentriert. Die Bibliothek vereinfacht die Brücke zwischen der Transformer-Bibliothek und der Hardwarebeschleunigung und schafft ein benutzerfreundliches Toolkit für Produktionsleistung. Durch die Anwendung der von ONNX Runtime bereitgestellten Optimierungen können Benutzer von der gesamten Hardwarebeschleunigung profitieren, was zu schnelleren Inferenzpipelines führt. Eine Zusammenarbeit innerhalb der Hugging Face-Community ermöglicht eine Sequenz-zu-Sequenz-Modelloptimierung unter Verwendung dieser beschleunigten Inferenz-Pipeline-Klassen, und ein End-to-End-Beispiel zeigte, dass die Verwendung der Optimum Library zu einer 44-prozentigen Steigerung des Durchsatzes oder einer Verringerung der Latenz bei gleichzeitiger Einsparung führen kann 99,6 % der ursprünglichen Modellgenauigkeit.
Beschleunigung der ML-Inferenz im großen Maßstab mit ONNX, Triton und Seldon | PyData Global 2021
Beschleunigung der ML-Inferenz im großen Maßstab mit ONNX, Triton und Seldon | PyData Global 2021
In dem Video „Accelerating ML Inference at Scale with ONNX, Triton and Seldon | PyData Global 2021“ erörtert Alejandro Saucedo von Seldon Technologies die Herausforderungen bei der Skalierung von Machine-Learning-Inferenz und die Verwendung von ONNX und Triton zur Optimierung und Produktion von Modellen. Unter Verwendung des GPT-2-TensorFlow-Modells als Anwendungsfall behandelt die Sitzung die Vorverarbeitung, die Auswahl optimaler Tokens und die Bereitstellung des Modells mit Tempo und dem Triton-Inferenzserver. Saucedo betont die Notwendigkeit, Infrastrukturkomplexitäten zu abstrahieren und eine einfache Bereitstellung zu ermöglichen, während gleichzeitig Reproduzierbarkeit und Compliance sichergestellt werden. Der Vortrag endet mit Kooperationen mit Open-Source-Projekten für End-to-End-Schulungs- und Bereitstellungskomponenten.
AI Show Live – Folge 62 – Multiplattform-Inferenz mit der ONNX-Laufzeit
AI Show Live – Folge 62 – Multiplattform-Inferenz mit der ONNX-Laufzeit
In der Folge „Multiplatform Inference with the ONNX Runtime“ der AI Show Live zeigen Gastgeber, wie ein Superauflösungsmodell und ein Objekterkennungsmodell auf mehreren Plattformen mithilfe des ONNX Runtime-Frameworks bereitgestellt werden. Sie diskutieren Vor- und Nachverarbeitungsschritte für mobile und Webplattformen, demonstrieren die Vorteile der Verwendung einer einzigen Lösung, erklären den Prozess der Konvertierung eines PyTorch-Modells in ein ONNX-Modell und zeigen, wie Daten für die Inferenz mit ONNX vorverarbeitet werden Laufzeit. Darüber hinaus demonstrieren sie die Implementierung des BERT-Modells zur Verarbeitung natürlicher Sprache mithilfe von Onnx Runtime in C#. Der Code und die Open-Source-Modelle stehen zur Anpassung an die Lösungen der Benutzer zur Verfügung.
Im zweiten Teil der AI Show Live behandeln die Moderatoren eine Vielzahl von Themen im Zusammenhang mit der Ausführung von Inferenz mit der ONNX-Laufzeit. Sie demonstrieren den Prozess der Textklassifizierung anhand eines Beispiels aus den ONNX-Inferenzbeispielen und untersuchen die Installation von Paketen und Tools, die zum Erstellen von BERT-Klassifizierungsmodellen in C# erforderlich sind. Sie besprechen auch die Verwendung von IntelliCode mit VS 2022 und gehen durch die Schritte zur Vorbereitung der Modellinferenz, einschließlich der Erstellung von Tensoren, der Konfiguration der ONNX Runtime-Inferenzsitzung und der Nachbearbeitung der Ausgabe. Darüber hinaus gehen sie auf die Bedeutung der Konsultation der Modelldokumentation und der Auswahl des richtigen Tokenizers für genaue Ergebnisse ein.