Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Nutzen Sie die Kraft des maschinellen Lernens mit ONNX – Ron Dagdag
Nutzen Sie die Kraft des maschinellen Lernens mit ONNX – Ron Dagdag
In diesem Video geht Ron Dagdag auf die Bedeutung von Frameworks für maschinelles Lernen ein, insbesondere ONNX, das die Interoperabilität zwischen Deep-Learning-Frameworks und -Bereitstellung erleichtert. Er beschreibt die Möglichkeiten, ONNX-Modelle zu erhalten, einschließlich der Konvertierung vorhandener Modelle, des Trainings von Modellen mit dem automatisierten maschinellen Lernen von Azure und der Verwendung des benutzerdefinierten Vision-Dienstes von Azure. Dagdag betont die Entscheidung, ob Modelle für maschinelles Lernen in der Cloud oder am Rand bereitgestellt werden sollen, und er schlägt vor, ONNX zu nutzen, um den Prozess nahtloser zu gestalten. Darüber hinaus geht er durch den Prozess der Verwendung von Microsofts ML.NET zum Erstellen eines maschinellen Lernmodells und demonstriert, wie das ONNX-Modell mithilfe der ONNX-Laufzeit für Rückschlüsse in eine Anwendung integriert werden kann. Dagdag untersucht auch ONNX als offenen Standard für maschinelles Lernen, seine verschiedenen Plattformen und Sprachen sowie Tools, um die Modelle kleiner zu machen.
Nutzen Sie die Kraft des maschinellen Lernens mit ONNX | Ron Lyle Dagdag | Conf42 Maschinelles Lernen 2021
Nutzen Sie die Kraft des maschinellen Lernens mit ONNX | Ron Lyle Dagdag | Conf42 Maschinelles Lernen 2021
In diesem Video erörtert Ron Dagdag die Vorteile der Verwendung von ONNX (Open Neural Network Exchange) als offenes Format für Machine Learning-Modelle, insbesondere bei der Bereitstellung von Modellen an verschiedenen Endpunkten wie Telefonen oder Cloud-Infrastrukturen. Er behandelt die Szenarien, in denen das Konvertieren eines Modells in ONNX nützlich sein kann, z. B. bei geringer Leistung oder Kombinieren von Modellen, die auf verschiedenen Frameworks trainiert wurden, und beschreibt, wie beliebte Modelle wie RestNet im ONNX-Format heruntergeladen werden können. Darüber hinaus erläutert er die Vorteile des Ausführens von Modellen für maschinelles Lernen am Rand sowie die Bedeutung der Verwaltung von Modellen durch Registrierung in der Cloud und Versionierung. Er demonstriert, wie man ein Modell in ONNX konvertiert und die ONNX-Laufzeit in Python für Inferenzen verwendet, und betont abschließend die Rolle von ONNX, Datenwissenschaftlern und Softwareentwicklern eine effektive Zusammenarbeit zu ermöglichen.
Inferenz in JavaScript mit ONNX Runtime Web!
Inferenz in JavaScript mit ONNX Runtime Web!
Das Video behandelt die Verwendung von ONNX Runtime Web im Browser über eine Next.js-Vorlage, die eine Benutzeroberfläche zum Ausführen von Rückschlüssen auf vorausgewählte Bilder bietet. Der Prozess der Konvertierung von Bilddaten in einen Tensor unter Verwendung von RGB-Werten und Dimensionserstellung wird demonstriert. Die Modellhilfsfunktion wird untersucht, die vorverarbeitete Daten unter Verwendung des Pfads zum Modell, des Ausführungsanbieters und der Sitzungsoptionen an die ONNX-Inferenzsitzung übergibt. Feeds für das Modell werden mithilfe des Eingabenamens und des Tensorobjekts erstellt und an die Funktion session.run übergeben, um die fünf besten Ergebnisse zu erhalten. Das erste Ergebnis füllt die Bildanzeige, während die Webpack-Konfiguration und Anweisungen für die serverseitige Inferenz mithilfe des ONNX-Laufzeitknotens bereitgestellt werden.
Ron Dagdag – Erstellen neuronaler Netze im Browser mit ONNX
Ron Dagdag – Erstellen neuronaler Netze im Browser mit ONNX
In diesem Video erklärt Ron Dagdag, wie das ONNX-Framework für maschinelles Lernen verwendet werden kann, um neuronale Netze in einem Browser auszuführen. Er erörtert die Grundlagen des maschinellen Lernens, die Erstellung und Bereitstellung von ONNX-Modellen und die ONNX-Laufzeitumgebung. Dagdag demonstriert die Verwendung von ONNX anhand verschiedener Beispiele, darunter die Vorhersage von Gehältern auf der Grundlage von Berufserfahrung und das Erkennen von Emotionen in Bildern. Er behandelt auch die Bereitstellung von ONNX-Modellen auf verschiedenen Plattformen wie Android und iOS und hebt verfügbare Ressourcen und Demos zum Experimentieren mit ONNX hervor. Dagdag ermutigt zum Experimentieren mit ONNX und betont die Bedeutung effizienter Rückschlüsse auf Zielplattformen unter Verwendung der ONNX-Laufzeit.
Neuronale Netze mit ONNX im Browser ausführen – Ron Dagdag – NDC Melbourne 2022
Neuronale Netze mit ONNX im Browser ausführen – Ron Dagdag – NDC Melbourne 2022
Ron Dagdag teilt sein Fachwissen darüber, wie neuronale Netze in Browsern mit ONNX ausgeführt werden können. Er erörtert die Grundlagen der Programmierung und wie sie sich von maschinellem Lernen unterscheidet, die Verfügbarkeit von JavaScript und Frameworks für maschinelles Lernen und wie Modelle für maschinelles Lernen auf verschiedenen Geräten ausgeführt werden können, einschließlich Telefonen, IoTs und der Cloud. Er stellt ONNX vor, ein offenes Format für maschinelle Lernmodelle, das Modelle, die in verschiedenen Frameworks erstellt wurden, in bestehende Anwendungen in verschiedenen Programmiersprachen integrieren kann. Dagdag demonstriert, wie ONNX-Modelle erstellt, verwaltet und bereitgestellt werden, indem ONNX-Laufzeit-, Webassembly- und Web-GL-Technologien integriert werden, um ONNX-Modelle in Browsern auszuführen und gleichzeitig Leistung, Sicherheit und Kosten zu optimieren. Das Video behandelt auch das Scoring von vortrainierten Modellen auf Mobilgeräten, Kostenüberlegungen und die Vorteile einer näher am Edge ausgeführten Objekterkennung für die lokale Verarbeitung großer Datenmengen.
Linux Foundation Artificial Intelligence & Data Day – ONNX Community Meeting – 21. Oktober 2021
Emma Ning (Microsoft) ONNX Runtime Web für In-Browser-Inferenz
001 ONNX 20211021 Ning ONNX Runtime Web für In-Browser-Inferenz
Emma, Produktmanagerin des Microsoft AI Framework-Teams, stellt ONNX Runtime Web vor, eine neue Funktion in ONNX Runtime, die es JavaScript-Entwicklern ermöglicht, Modelle für maschinelles Lernen in einem Browser auszuführen und bereitzustellen, mit zwei Backends, einschließlich Webassembly für CPU und WebGL für GPU. Das Webassembly-Backend kann jedes ONNX-Modell ausführen, Multithreading und SIMD nutzen und die meisten Funktionen unterstützen, die die native ONNX Runtime unterstützt, während das WebGL-Backend eine reine JavaScript-basierte Implementierung mit WebGL-APIs ist. Der Redner erörtert auch die Kompatibilität von ONNX-Operatoren mit beiden Backends, stellt Codeausschnitte zum Erstellen einer Inferenzsitzung und zum Ausführen eines Modells bereit und präsentiert eine Demo-Website mit mehreren In-Browser-Bildmodellszenarien, die vom MobileNet-Modell unterstützt werden. Der Sprecher räumt jedoch auch ein, dass es noch Raum für Verbesserungen gibt, um die Leistung und den Speicherverbrauch von ONNX Runtime Web zu verbessern und die unterstützten ONNX-Operatoren zu erweitern.
Web and Machine Learning W3C Workshop Sommer 2020
ONNX.js – Eine Javascript-Bibliothek zum Ausführen von ONNX-Modellen in Browsern und Node.js
ONNX.js – Eine Javascript-Bibliothek zum Ausführen von ONNX-Modellen in Browsern und Node.js
ONNX.js ist eine JavaScript-Bibliothek, mit der Benutzer ONNX-Modelle in Browsern und Node.js ausführen können. Es optimiert das Modell sowohl auf der CPU als auch auf der GPU mit verschiedenen Techniken und unterstützt Profilerstellung, Protokollierung und Debugging für eine einfache Analyse. Die Bibliothek unterstützt alle wichtigen Browser und Plattformen und ermöglicht die Parallelisierung mit Web Workern für eine bessere Leistung auf Multicore-Maschinen. Die Verwendung von WebGL für den Zugriff auf GPU-Funktionen bietet erhebliche Leistungsverbesserungen und reduziert die Datenübertragung zwischen CPU und GPU. Obwohl weitere Optimierung und Betreiberunterstützung erforderlich sind, ermutigt der Redner Community-Beiträge zur Verbesserung von ONNX.js.
So führen Sie PyTorch-Modelle im Browser mit ONNX.js aus
So führen Sie PyTorch-Modelle im Browser mit ONNX.js aus
Das Video erläutert die Vorteile der Ausführung eines PyTorch-Modells in einem Browser mit JavaScript und ONNX.js, einschließlich besserer Antwortzeiten, Skalierbarkeit, Offline-Verfügbarkeit und verbesserter Privatsphäre der Benutzer. Das Video führt auch durch den Prozess der Konvertierung eines PyTorch-Modells in ein ONNX-Modell, des Ladens in eine ONNX.js-Sitzung und des Ausführens der Inferenz im Browser. Datenvorbereitung, Debugging und Erweiterungen werden ebenfalls besprochen, und der Referent demonstriert, wie das Modell mithilfe von Datenerweiterungstechniken robuster gemacht werden kann. Das Video bietet Beispielcode und eine Demo-Website, auf der Benutzer das Modell selbst ausprobieren können.
Ziffernklassifizierung auf CPU mit ONNX Runtime-Demo
Ziffernklassifizierung auf CPU mit ONNX Runtime-Demo
Open Neural Network Exchange (ONNX) bietet ein Open-Source-Format für Deep-Learning- und Machine-Learning-Modelle. Wir können unsere Modelle in jedem beliebigen Framework trainieren und das Modell dann in das ONNX-Format konvertieren. Mit der ONNX-Laufzeit von Microsoft können wir eine Inferenzsitzung mit onnx-Modellen in beliebigen Umgebungen ausführen, was uns eine etwas schnellere Implementierung ermöglicht. Hier ist eine einfache Demonstration desselben. Das Modell wird mithilfe des MNIST-Datensatzes mit PyTorch darauf trainiert, Ziffern zu erkennen. Ich führe eine Inferenzsitzung auf einer Linux-CPU aus.
https://github.com/NagarajSMurthy/Digit-recognizer
Milliarden von NLP-Inferenzen auf der JVM mit ONNX und DJL
Milliarden von NLP-Inferenzen auf der JVM mit ONNX und DJL
Der CTO eines Media-Intelligence-Unternehmens erläutert, wie sie die JVM und DJL und Hugging Face für die NLP-Tokenisierung in der Pipeline für maschinelles Lernen verwenden, um die Medienlandschaft für verschiedene Anwendungsfälle zu durchsuchen. Da ihre Produktfunktionen darauf hingearbeitet haben, sind ihr maschinelles Lern- und Modellierungssystem zu wesentlichen Bestandteilen geworden, um alles am Laufen zu halten, da sie eine Größenordnung erreicht haben, in der die CPU nicht mehr ausreichen konnte. Sie haben von der Verwendung eines 32-Bit-Gleitkommamodells auf 16-Bit umgestellt, was zu einer Steigerung der Effektivität um 3 % führte, aber während des Prozesses mit Konvertierungsfehlern und seltenen Speicherlecks konfrontiert war, die sie durch Ersetzen mehrerer Implementierungen behoben haben. Sie investierten in Robustheit, indem sie GPU-gestützte CI hinzufügten und einen fortschrittlichen Prometheus-Logik-Stack einrichteten, der die Latenz und Tokenisierungslatenz verschiedener Inferenzen überwacht. Ihre Zukunftspläne umfassen die Verbesserung der GPU-Effizienz und das Hinzufügen weiterer Modelle zum System durch die Erstellung eines Multi-GPU-Setups.