![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Implementieren Sie Yolo3 Real-time mit C#
Implementieren Sie Yolo3 Real-time mit C#
https://github.com/duonghb53/YoloOnCSharpGPU
Gesichtserkennung mit C# und OpenCVSharp - Praktische ML.NET-Benutzergruppe 19.01.2022
Gesichtserkennung mit C# und OpenCVSharp - Praktische ML.NET-Benutzergruppe 19.01.2022
Das Video-Tutorial zur Gesichtserkennung mit OpenCVSharp in C# begann damit, dass der Referent die OpenCVSharp-Bibliothek vorstellte, eine Open-Source-Bibliothek für Computer-Vision-Aufgaben mit einem .NET-Wrapper. In dem Video wurde die Verwendung verschiedener Klassifikatoren zur Erkennung, einschließlich für Augen, und die Bedeutung des Experimentierens bei der Auswahl von Klassifikatoren erörtert. Das Tutorial unterstützte den Zuhörer beim Erstellen eines Programms zur Gesichts- und Augenerkennung mithilfe von Webcams mit Hilfe von Codeschnipseln, Visual Studio und interaktiven .NET-Notebooks. Verschiedene Aspekte, darunter das Überlagern von transparenten Bildern und der richtige Umgang mit Mattenobjekten, wurden ebenfalls ausgearbeitet. Der Redner würdigte die Benutzerfreundlichkeit, Geschwindigkeit und Kompatibilität von OpenCVSharp mit .NET, wies aber auch auf das Fehlen von Beispielen und den unsicheren langfristigen Support hin.
Vorhersage auf einem Custom Vision ONNX-Modell mit ML.NET
Vorhersage auf einem Custom Vision ONNX-Modell mit ML.NET
In diesem YouTube-Video erörtert der Moderator die Verwendung von ML.NET zur Vorhersage eines benutzerdefinierten Vision-ONNX-Modells. Dazu muss das Modell aus dem benutzerdefinierten Vision-Dienst exportiert und in das ML.NET-Projekt importiert werden. Die Implementierung umfasst das Ändern der Größe von Bildern, das Extrahieren von Bildpixeln, das Erstellen eines Datenkontexts und einer leeren Datenliste zum Laden der Bilddaten, das Verwenden des ML.NET-Frameworks zum Treffen von Vorhersagen für das Modell und das Ausgeben der Ergebnisse. Das Video zeigt auch, wie man den Ausgabenamen eines Modells mit einem Tool namens Neuron erhält und wie man Begrenzungsrahmeninformationen aus dem Modell für ein bestimmtes Testbild erhält. Der Moderator zeigt auch, wie Sie ein Rechteck um den Begrenzungsrahmen zeichnen und die vorhergesagten Bezeichnungen mithilfe der Grafik-API anzeigen. Als wichtigster Teil der Implementierung wird die Implementierung des ONNX-Modells unter Verwendung der ML.NET-API und der Größenanpassung von Bildern hervorgehoben.
Mit ONNX neuronale Netze portabel machen
Mit ONNX neuronale Netze portabel machen
In diesem YouTube-Video erklärt Ron Dagdag, wie man neuronale Netze mit ONNX portabel macht, wobei er sich auf die Inferenzseite des maschinellen Lernens konzentriert. ONNX ist ein Open-Source-Framework, das die Portabilität von Modellen für maschinelles Lernen über verschiedene Verarbeitungseinheiten und Geräte hinweg ermöglicht. Der Referent erörtert den Prozess der Konvertierung von Modellen in ONNX, die Bereitstellung und Integration des Modells in Anwendungen und seine Verwendung für die Cloud- und Edge-Bereitstellung. Sie demonstrieren auch, wie man ein ONNX-Modell in Node.js lädt und Bildklassifizierungsmodelle mithilfe von ONNX Runtime in Web- und mobile Anwendungen integriert. ONNX-Modelle sind ein offener Standard, der aus verschiedenen Frameworks erstellt werden kann, um effizient auf der Zielplattform bereitgestellt zu werden.
Auf .NET Live – AI Everywhere: Azure ML und ONNX Runtime
Auf .NET Live – AI Everywhere: Azure ML und ONNX Runtime
Das Video „On .NET Live – AI Everywhere: Azure ML and ONNX Runtime“ konzentriert sich auf die Verwendung von Azure ML und ONNX Runtime für maschinelles Lernen mit C#. Die Referenten diskutieren die Vorteile der Verwendung des ONNX-Formats für den Export von Modellen in Programmiersprachen, die Optimierung der ONNX-Laufzeit für Hardwarebeschleunigung und Inferenz sowie ihre Kompatibilität mit bestimmten Versionen des Frameworks. Sie zeigen auch, wie Sie ONNX Runtime mit Azure ML in Python und .NET verwenden, ein neuronales Netzwerkmodell erstellen und trainieren und die Inferenz und ihren letzten Schritt beim maschinellen Lernen erklären. Das Video endet mit der Einführung eines neuen Anbieters für die ONNX-Laufzeit, der die Verwendung von OpenVINO für die ARM-CPU ermöglicht und Debugging-Funktionen bereitstellt.
In diesem Abschnitt des Videos diskutieren die Gastgeber die Flexibilität und Konfigurierbarkeit der ONNX-Laufzeit und ihre Fähigkeit, auf verschiedenen Hardware- und Softwareplattformen ausgeführt zu werden. Die ONNX-Laufzeit wird als großartiger Wrapper für verschiedene Plattformen angesehen, da Kunden sie auf einer Cloud, Android, iOS oder der Snapdragon-CPU verwenden können und schnellere Rückschlüsse ermöglichen.
Berlin Buzzwords 2019: Lester Solbakken – Scaling ONNX and TensorFlow Model Evaluation in Search
Berlin Buzzwords 2019: Lester Solbakken – Scaling ONNX and TensorFlow Model Evaluation in Search
Lester Solbakken erörtert die Herausforderungen bei der Skalierung von maschinellem Lernen für Suchanwendungen und schlägt eine alternative Lösung zur Verwendung externer Modellserver vor. Er schlägt vor, maschinelle Lernmodelle auf Inhaltsknoten zu evaluieren, anstatt Daten an externe Modellserver zu senden, um die Skalierbarkeit zu verbessern und Latenz und Durchsatz zu kontrollieren. Solbakken hebt Vespas Verwendung seiner eigenen Ranking-Sprache und Tensor-API-Erweiterung hervor, um das Erstellen eines deklarativen Zustandspakets für eine Anwendung zu vereinfachen, sowie die laufenden Bemühungen, maschinelle Lernmodelle in Vespa zu unterstützen. Er betont, wie wichtig es ist, die Korrelation zwischen verschiedenen Phasen des Rankings zu verstehen, um Probleme beim Abrufen auf Systemebene zu vermeiden, und ermutigt die Menschen, zum Open-Source-Projekt beizutragen.
ONNX assimilieren
ONNX assimilieren
In diesem Video stellt der Moderator ONNX als einen offenen Standard für die Interoperabilität des maschinellen Lernens vor, der auf allen verschiedenen Plattformen funktionieren kann. Sie durchlaufen den Prozess der Erstellung eines ONNX-Projekts von Grund auf neu, optimieren ein Beispiel aus dem Microsoft-Repo, beheben Probleme und erkunden andere ONNX-bezogene Github-Projekte. Anschließend testen sie eine ONNX-Bindung mit GPT2 und CUDA und bekunden ihr Interesse an der weiteren Erforschung von Rust-Bindungen für die ONNX-Runtime in der Zukunft. Der Moderator weist auf die Vielseitigkeit und Portabilität von ONNX hin und sieht darin ein gutes Werkzeug für Experimente und den Aufbau umfangreicherer Projekte in der Zukunft.
HITNET vs. Vergleich der neuronalen Stereotiefenschätzung von ACVNet (ONNX)
HITNET vs. Vergleich der neuronalen Stereotiefenschätzung von ACVNet (ONNX)
Vergleich der HITNET- und ACVNet-Stereotiefenschätzungsmodelle im Driving Stereo-Datensatz.
Modellrückschlussdetails (NVIDIA 1660 SUPER):
HITNET (640X480): 220 ms
ACVNet (640 x 384): 480 ms
Referenzen: [HITNET-Inferenz] https://github.com/ibaiGorordo/ONNX-HITNET-Stereo-Depth-estimation
[ACVNet-Inferenz] https://github.com/ibaiGorordo/ONNX-ACVNet-Stereo-Depth-Estimation
[Driving Stereo-Datensatz] https://drivingstereo-dataset.github.io/
Importieren, trainieren und optimieren Sie ONNX-Modelle mit dem NVIDIA TAO Toolkit
Importieren, trainieren und optimieren Sie ONNX-Modelle mit dem NVIDIA TAO Toolkit
Das Video zeigt, wie das NVIDIA TAO Toolkit zum Importieren, Trainieren und Optimieren von ONNX-Modellen verwendet wird. Es beginnt mit dem Herunterladen eines vortrainierten ResNet18-Modells, dessen Feinabstimmung mit TAO auf dem Pascal VOC-Datensatz und bietet Schritte zum Importieren des Modells und zum Visualisieren des ONNX-Diagramms. Der Trainingsfortschritt kann mithilfe der TensorBoard-Visualisierung überwacht werden, und im Falle von ONNX-Konvertierungsfehlern können benutzerdefinierte Ebenen verwendet werden. Das Video erklärt auch, wie Sie die Leistung des Modells bewerten, indem Sie den abnehmenden Verlust beobachten, den Verlust validieren und Gewichtungen und Verzerrungen analysieren. Benutzer können die Genauigkeit des Modells anhand des Testdatensatzes und der Beispielbilder beurteilen und mit der Bereinigung und Optimierung fortfahren, um es weiter zu verbessern.
NVAITC-Webinar: Bereitstellen von Modellen mit TensorRT
NVAITC-Webinar: Bereitstellen von Modellen mit TensorRT
In diesem Abschnitt des NVAITC-Webinars stellt die Lösungsarchitektin Nikki Loppie TensorRT vor, NVIDIAs Software-Entwicklungskit für leistungsstarke Deep-Learning-Inferenz. TensorRT bietet einen Inferenzoptimierer und eine Laufzeit für Inferenz mit geringer Latenz und hohem Durchsatz auf einer Reihe von Plattformen, von eingebetteten Geräten bis hin zu Rechenzentren. Loppie erklärt die fünf Technologien, die TensorRT verwendet, um die Inferenzleistung zu optimieren, einschließlich Kernel-Fusion und Präzisionskalibrierung. Entwickler können die Python- und C++-APIs von TensorRT verwenden, um diese Optimierungen in ihre eigenen Anwendungen zu integrieren, und Konverterbibliotheken wie trtorch können verwendet werden, um PyTorch-Modelle für Inferenzen zu optimieren. Loppie demonstriert, wie TensorRT-optimierte Modelle mithilfe der trtorch-Bibliothek gespeichert werden, und vergleicht die optimierten Modelle mit nicht optimierten Modellen für die Bildklassifizierung und zeigt signifikante Beschleunigungen mit halber Genauigkeit.