Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Déployer des modèles ML avec Azure Functions et ONNX Runtime
Déployer des modèles ML avec Azure Functions et ONNX Runtime
La vidéo montre comment déployer un modèle d'apprentissage automatique à l'aide d'ONNX Runtime et d'Azure Functions dans VS Code. Le processus comprend la création d'un projet Azure Function, la mise à jour du code avec le script de score, le chargement du modèle à partir du chemin du modèle, la création d'une session d'inférence avec ONNX Runtime et le renvoi de la sortie. La vidéo montre également comment déployer la fonction sur Azure et la tester là-bas. Cette méthode permet un déploiement efficace des modèles via Azure Functions et le runtime ONNX, permettant un accès facile aux résultats.
Déployer des modèles ONNX sur Flink - Isaac Mckillen-Godfried
Déployer des modèles ONNX sur Flink - Isaac Mckillen-Godfried
Isaac McKillen-Godfried discute des défis liés à l'intégration de modèles d'apprentissage automatique de pointe issus d'environnements de recherche dans la production pour une utilisation efficace. L'objectif de la conférence est de faciliter le passage des modèles des environnements de recherche à la production et de permettre l'incorporation de modèles de pointe dans différentes plateformes. Il explique les avantages du format ONNX et les différentes options d'intégration de modèles d'apprentissage profond en Java. De plus, il discute du déploiement de modèles ONNX sur Flink à l'aide de Jep, un interpréteur Python écrit en Java, et explique un projet open source qui permet de consommer des données à partir du connecteur Flink Twitter, puis de filtrer les tweets non anglais. La conférence met également en évidence la mise en œuvre actuelle du déploiement de modèles ONNX sur Flink uniquement par CPU et le potentiel de futures implémentations GPU ou hybrides.
Déployez des modèles de transformateurs dans le navigateur avec #ONNXRuntime
Déployez des modèles de transformateurs dans le navigateur avec #ONNXRuntime
La vidéo montre comment affiner et déployer un modèle BERT optimisé sur un navigateur à l'aide d'ONNXRuntime. Le présentateur montre comment convertir le modèle PyTorch au format ONNX à l'aide de l'API Transformers, utiliser ONNXRuntime pour quantifier le modèle pour la réduction de taille et créer une session d'inférence. La vidéo couvre également les étapes nécessaires pour importer des packages dans JavaScript à l'aide de WebAssembly et comment exécuter des entrées de texte via le modèle transformé pour la classification des émotions. Malgré une réduction de la précision des prédictions, la taille réduite du modèle est idéale pour un déploiement sur un navigateur. Des liens vers le modèle, les ensembles de données, le code source et un article de blog sont fournis.
Déploiement du modèle Tiny YOLOv2 ONNX sur Jetson Nano à l'aide de DeepStream
Déploiement du modèle Tiny YOLOv2 ONNX sur Jetson Nano à l'aide de DeepStream
Cette vidéo montre l'efficacité de l'utilisation d'un modèle Tiny YOLOv2 pré-formé au format ONNX pour traiter simultanément quatre flux vidéo.
Les flux proviennent de quatre fichiers distincts et sont traités sur Jetson Nano à l'aide du SDK DeepStream. Le système a atteint un FPS d'environ 6,7 tout en traitant les quatre vidéos en parallèle.
https://github.com/thatbrguy/Deep-Stream-ONNX
Le moteur d'inférence ONNX Runtime est capable d'exécuter des modèles d'apprentissage automatique dans différents environnements
Exécution ONNX
ONNX Runtime est un moteur d'inférence open source optimisé pour les performances, l'évolutivité et l'extensibilité, capable d'exécuter de nouveaux opérateurs avant qu'ils ne soient standardisés. Le format ONNX permet une représentation et un déploiement faciles des modèles développés sur les outils préférés de manière commune. Microsoft s'est associé à Xilinx pour créer le fournisseur d'exécution de la bibliothèque logicielle Vitis AI, qui permet l'inférence et l'accélération de l'IA sur les plates-formes matérielles Xilinx. La boîte à outils Vitis AI se compose d'outils IP, de bibliothèques, de modèles et d'exemples de conceptions pour les développeurs FPGA, avec des chiffres de référence montrant une accélération maximale pour les solutions d'imagerie géospatiale. Le fournisseur d'exécution Vitis AI peut être construit à partir de la source ou déployé via une bibliothèque de logiciels pré-construite qui sera bientôt publiée sur Azure Marketplace.
Open Neural Network Exchange (ONNX) dans l'entreprise : comment Microsoft fait évoluer l'apprentissage automatique
Open Neural Network Exchange (ONNX) dans l'entreprise : comment Microsoft fait évoluer le ML - BRK3012
L'Open Neural Network Exchange (ONNX) est présenté comme une solution aux défis du déploiement de modèles d'apprentissage automatique en production, y compris la gestion de plusieurs cadres de formation et cibles de déploiement, Microsoft adoptant déjà largement ONNX pour des produits tels que Bing, Bing ads et Office 365 ONNX permet l'évolutivité et la maintenance des modèles d'apprentissage automatique, ainsi que des améliorations significatives des performances et des économies de coûts attribuées à l'utilisation d'accélérateurs matériels tels que les GPU. De plus, l'écosystème ONNX comprend des partenaires tels qu'Intel pour l'optimisation de l'exécution, avec des kits de développement et des techniques de quantification facilement disponibles pour convertir les modèles FP32 en types de données de précision inférieure, ce qui se traduit par une efficacité accrue. Les conférenciers soulignent également les avantages de l'utilisation d'ONNX pour l'informatique de pointe, car le temps d'exécution est flexible et peut déployer des modèles sur différentes plates-formes matérielles.
#OpenVINO Execution Provider For #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
#OpenVINO Execution Provider For #ONNX Runtime - #OpenCV Weekly #Webinar Ep. 68
Le fournisseur d'exécution OpenVINO pour ONNX Runtime a été le principal sujet de discussion de ce webinaire hebdomadaire OpenCV. Le produit vise à accélérer les performances des modèles ONNX sur le matériel Intel tout en nécessitant un minimum d'effort de la part de l'utilisateur. Le webinaire a abordé les défis du déploiement de modèles d'apprentissage en profondeur dans le monde réel, avec OpenVINO présenté comme la solution à ces défis. OpenVINO peut optimiser les modèles d'IA pour des performances efficaces sur divers appareils et matériels. Le runtime ONNX, un projet open source conçu pour accélérer l'inférence d'apprentissage automatique, a été longuement discuté. Le webinaire a également présenté une démonstration de l'amélioration des performances obtenue avec le fournisseur d'exécution OpenVINO pour ONNX Runtime, ainsi que ses fonctionnalités telles que l'inférence multithread, la prise en charge complète de divers plugins et la mise en cache de modèles. L'intégration entre OpenVINO et PyTorch via le fournisseur d'exécution OpenVINO a également été discutée. Les présentateurs ont répondu aux questions du public sur des sujets tels que la compatibilité avec les appareils ARM et la perte potentielle de performances ou de précision lors de l'utilisation des formats d'échange ONNX.
Importation de réseaux de neurones avec ONNX
Importation de réseaux de neurones avec ONNX
Cette vidéo explore l'importance du projet Open Neural Network Exchange (ONNX) dans l'apprentissage automatique et ses avantages dans la conversion de modèles à travers divers outils. Le conférencier discute des défis liés au chargement manuel des modèles ou à l'aide d'outils automatisés et comment ONNX élimine ce problème grâce à son modèle de calcul basé sur des graphes. Le conférencier souligne également les avantages d'ONNX dans la conversion manuelle de modèles complexes et sa compatibilité avec différents frameworks. La vidéo aborde les modèles de réseau paramétrés, la structure d'ONNX et les défis potentiels qui peuvent survenir lors de l'utilisation du projet. Malgré ces défis, le conférencier pense qu'ONNX prospérera grâce à son soutien substantiel de diverses entreprises.
Importation et exportation de réseaux de neurones avec ONNX
Importation et exportation de réseaux de neurones avec ONNX
La vidéo montre l'utilisation d'ONNX en tant que spécification multiplateforme et format de fichier pour les modèles d'apprentissage automatique afin d'échanger des modèles entre différents cadres de réseaux neuronaux. Les conférenciers montrent comment importer et exporter des réseaux de neurones à l'aide d'ONNX via Mathematica et Keras, et comment inspecter et importer des métadonnées, ainsi que définir des métadonnées lors de l'exportation. Ils discutent également de l'exportation et de l'importation de modèles entre Core ML, PyTorch et Wolfram Language, et de l'importance d'utiliser le bon décalage lors de la conversion. Les conférenciers discutent de l'avenir d'ONNX, y compris l'extension de la prise en charge de l'importation et de l'exportation, l'amélioration des cas difficiles pour l'importateur et la possibilité d'exporter vers plusieurs versions d'ensembles d'opérateurs. De plus, le conférencier explique la différence entre ONNX et MXNet et fournit des informations sur la façon de vérifier quelles fonctions peuvent être exportées vers ONNX à l'aide d'utilitaires internes.
Conversion du modèle Tensorflow au format ONNX - Détection des émotions humaines
Conversion du modèle Tensorflow au format Onnx - Détection des émotions humaines
La vidéo présente les avantages de la conversion de modèles TensorFlow pré-formés au format ONNX, qui fournit un format commun pour représenter des modèles d'apprentissage automatique pouvant être interprétés sur différentes plates-formes matérielles à l'aide de l'environnement d'exécution ONNX. En convertissant les modèles, les développeurs peuvent les exécuter plus efficacement dans différents frameworks ou les utiliser plus facilement avec d'autres praticiens. La vidéo montre le processus de conversion des modèles TensorFlow et Keras au format ONNX à l'aide des outils et des spécifications fournis sur le référentiel ONNX GitHub, et souligne comment le format ONNX optimise le modèle et réduit le temps d'exécution pour les prédictions. Le modèle ONNX surpasse également le modèle TensorFlow pour la détection des émotions humaines sur un processeur.