Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Détection d'objets Yolov7, modèle ML.NET onnx
Détection d'objets Yolov7, modèle ML.NET onnx
https://github.com/ptiszai/Object-Detection-yolov7-ML.NET-onnx
Implémenter Yolo3 en temps réel avec C#
Implémenter Yolo3 en temps réel avec C#
https://github.com/duonghb53/YoloOnCSharpGPU
Détection de visage à l'aide de C # et OpenCVSharp - Groupe d'utilisateurs pratiques de ML.NET 19/01/2022
Détection de visage à l'aide de C # et OpenCVSharp - Groupe d'utilisateurs pratiques de ML.NET 19/01/2022
Le didacticiel vidéo sur la détection de visage à l'aide d'OpenCVSharp en C# a commencé par la présentation par l'orateur de la bibliothèque OpenCVSharp, une bibliothèque open source pour les tâches de vision par ordinateur, avec un wrapper .NET. La vidéo traite de l'utilisation de différents classificateurs pour la détection, y compris pour les yeux, et de l'importance de l'expérimentation dans la sélection des classificateurs. Le didacticiel a aidé l'auditeur à créer un programme de détection des visages et des yeux à l'aide de webcams, à l'aide d'extraits de code, de Visual Studio et de blocs-notes interactifs .NET. Différents aspects, y compris la façon de superposer des images transparentes et de gérer correctement les objets mats, ont également été élaborés. L'orateur a reconnu la facilité d'utilisation, la rapidité et la compatibilité d'OpenCVSharp avec .NET, mais a également noté le manque d'exemples et un support à long terme incertain.
Prédire sur un modèle Custom Vision ONNX avec ML.NET
Prédire sur un modèle Custom Vision ONNX avec ML.NET
Dans cette vidéo YouTube, le présentateur explique comment utiliser ML.NET pour prédire sur un modèle ONNX de vision personnalisée. Cela implique d'exporter le modèle à partir du service de vision personnalisé et de l'importer dans le projet ML.NET. L'implémentation comprend le redimensionnement des images, l'extraction des pixels de l'image, la création d'un contexte de données et d'une liste de données vide pour charger les données d'image, l'utilisation du framework ML.NET pour faire des prédictions sur le modèle et la sortie des résultats. La vidéo montre également comment obtenir le nom de sortie d'un modèle à l'aide d'un outil appelé Neuron et comment obtenir des informations sur la boîte englobante du modèle pour une image de test donnée. Le présentateur montre également comment dessiner un rectangle autour de la boîte englobante et afficher les étiquettes prédites à l'aide de l'API Graphics. La mise en œuvre du modèle ONNX à l'aide de l'API ML.NET et du redimensionnement d'image est soulignée comme la partie la plus importante de la mise en œuvre.
Rendre les réseaux de neurones portables avec ONNX
Rendre les réseaux de neurones portables avec ONNX
Dans cette vidéo YouTube, Ron Dagdag explique comment rendre les réseaux de neurones portables avec ONNX, en se concentrant sur le côté inférence de l'apprentissage automatique. ONNX est un framework open source qui permet la portabilité des modèles d'apprentissage automatique sur diverses unités de traitement et appareils. L'orateur discute du processus de conversion des modèles vers ONNX, du déploiement et de l'intégration du modèle avec des applications, et de son utilisation pour le déploiement dans le cloud et en périphérie. Ils montrent également comment charger un modèle ONNX dans Node.js et intégrer des modèles de classification d'images dans des applications Web et mobiles à l'aide d'ONNX Runtime. Les modèles ONNX sont une norme ouverte qui peut être créée à partir de divers frameworks pour être déployée efficacement sur la plate-forme cible.
Sur .NET Live - AI Everywhere : Azure ML et ONNX Runtime
Sur .NET Live - AI Everywhere : Azure ML et ONNX Runtime
La vidéo « On .NET Live - AI Everywhere : Azure ML et ONNX Runtime » se concentre sur l'utilisation d'Azure ML et ONNX Runtime pour l'apprentissage automatique avec C#. Les conférenciers discutent des avantages de l'utilisation du format ONNX pour l'exportation de modèles à travers les langages de programmation, de l'optimisation du runtime ONNX pour l'accélération matérielle et l'inférence, et de sa compatibilité avec des versions spécifiques du framework. Ils montrent également comment utiliser ONNX Runtime avec Azure ML dans Python et .NET, créer et former un modèle de réseau neuronal et expliquer l'inférence et sa dernière étape dans l'apprentissage automatique. La vidéo se termine par l'introduction d'un nouveau fournisseur pour le runtime ONNX qui permet l'utilisation d'OpenVINO pour le processeur ARM, offrant des capacités de débogage.
Dans cette section de la vidéo, les hôtes discutent de la flexibilité et de la configurabilité du runtime ONNX et de sa capacité à fonctionner sur diverses plates-formes matérielles et logicielles. Le runtime ONNX est considéré comme un excellent wrapper pour différentes plates-formes, car les clients peuvent l'utiliser sur un cloud, Android, iOS ou le processeur Snapdragon, et il permet une inférence plus rapide.
Berlin Buzzwords 2019 : Lester Solbakken – Mise à l'échelle de l'évaluation des modèles ONNX et TensorFlow dans la recherche
Berlin Buzzwords 2019 : Lester Solbakken – Mise à l'échelle de l'évaluation des modèles ONNX et TensorFlow dans la recherche
Lester Solbakken discute des défis de la mise à l'échelle de l'apprentissage automatique pour les applications de recherche et propose une solution alternative à l'utilisation de serveurs de modèles externes. Il suggère d'évaluer les modèles d'apprentissage automatique sur les nœuds de contenu, plutôt que d'envoyer des données à des serveurs de modèles externes, pour améliorer l'évolutivité et contrôler la latence et le débit. Solbakken met en évidence l'utilisation par Vespa de son propre langage de classement et de son extension d'API tenseur pour faciliter la création d'un package déclaratif d'état pour une application, ainsi que l'effort continu pour prendre en charge les modèles d'apprentissage automatique dans Vespa. Il souligne l'importance de comprendre la corrélation entre les différentes phases de classement pour éviter les problèmes de récupération au niveau du système et encourage les gens à contribuer au projet open source.
Assimiler ONNX
Assimiler ONNX
Dans cette vidéo, le présentateur présente ONNX en tant que norme ouverte pour l'interopérabilité de l'apprentissage automatique qui peut fonctionner sur toutes les plateformes. Ils passent par le processus de création d'un projet ONNX à partir de zéro, en peaufinant un exemple du repo Microsoft, en résolvant les problèmes et en explorant d'autres projets Github liés à ONNX. Ils testent ensuite une liaison ONNX à l'aide de GPT2 et CUDA, exprimant leur intérêt à explorer plus avant les liaisons Rust d'exécution ONNX à l'avenir. Le présentateur note la polyvalence et la portabilité d'ONNX et y voit un bon outil d'expérimentation et de construction de projets plus conséquents à l'avenir.
HITNET Vs. Comparaison de l'estimation de profondeur stéréo neurale ACVNet (ONNX)
HITNET Vs. Comparaison de l'estimation de profondeur stéréo neurale ACVNet (ONNX)
Comparaison des modèles d'estimation de profondeur stéréo HITNET et ACVNet dans l'ensemble de données Driving Stereo.
Détails de l'inférence du modèle (NVIDIA 1660 SUPER) :
HITNET (640X480) : 220 ms
ACVNet (640x384) : 480 ms
Références : [Inférence HITNET] https://github.com/ibaiGorordo/ONNX-HITNET-Stereo-Depth-estimation
[Inférence ACVNet] https://github.com/ibaiGorordo/ONNX-ACVNet-Stereo-Depth-Estimation
[Ensemble de données de conduite stéréo] https://drivingstereo-dataset.github.io/
Importez, formez et optimisez des modèles ONNX avec NVIDIA TAO Toolkit
Importez, formez et optimisez des modèles ONNX avec NVIDIA TAO Toolkit
La vidéo montre comment utiliser le kit d'outils NVIDIA TAO pour importer, former et optimiser des modèles ONNX. Il commence par télécharger un modèle ResNet18 pré-formé, en l'ajustant avec TAO sur l'ensemble de données Pascal VOC, et fournit des étapes pour importer le modèle et visualiser le graphique ONNX. La progression de la formation peut être surveillée à l'aide de la visualisation TensorBoard, et des couches personnalisées peuvent être utilisées en cas d'erreurs de conversion ONNX. La vidéo explique également comment évaluer les performances du modèle en observant la perte décroissante, en validant la perte et en analysant les poids et les biais. Les utilisateurs peuvent évaluer la précision du modèle sur l'ensemble de données de test et des exemples d'images et poursuivre l'élagage et l'optimisation pour l'améliorer davantage.