Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Onnx-mlir : un compilateur basé sur MLIR pour les modèles ONNX - Le dernier statut
Onnx-mlir : un compilateur basé sur MLIR pour les modèles ONNX - Le dernier statut
Onnx-mlir est un compilateur pour les modèles ONNX qui utilise MLIR et LLVM pour l'optimisation et la génération de code, prenant en charge les processeurs et les accélérateurs personnalisés. Dong Lin d'IBM Research souligne l'importance de tests approfondis et souligne l'utilisation du cadre dans les services de notation en ligne et les cadres de service de modèles. Onnx-mlir a plusieurs dialectes pour le processeur et l'accélérateur, avec des optimisations à différents niveaux, et il a été démontré qu'il accélère de 11 fois un modèle de détection de fraude par carte de crédit à l'aide d'un accélérateur IBM. Le projet accueille les contributions de la communauté pour optimiser les opérateurs importants et prendre en charge les opérateurs de niche ML et d'autres accélérateurs tels que les GPU.
PFVM - Un compilateur de réseau neuronal qui utilise ONNX comme représentation intermédiaire
PFVM - Un compilateur de réseau neuronal qui utilise ONNX comme représentation intermédiaire
Dans cette vidéo, Zijian Xu de Preferred Networks présente PFVM, un compilateur de réseau neuronal qui utilise ONNX comme représentation intermédiaire pour l'optimisation des modules. Il explique comment PFVM prend ONNX exporté en entrée, l'optimise et exécute le modèle avec des backends spécifiés à l'aide d'API tierces. Genji décrit l'importance de l'optimisation, y compris l'extension d'ONNX avec les opérateurs clients, l'inférence de forme et la simplification des graphiques. Il aborde également les limites des compilateurs ONNX actuels, y compris le besoin d'une plus grande prise en charge dans le cas dynamique, et suggère d'implémenter davantage de fonctions d'inférence. Zijian Xu souligne l'importance de réduire la surcharge de la plage du noyau et l'utilisation de la mémoire pour un calcul plus rapide et suggère d'utiliser les informations statiques disponibles sur les machines pour planifier et façonner l'inférence.
Pile de compilateur TVM YVR18-332 et prise en charge ONNX
Pile de compilateur TVM YVR18-332 et prise en charge ONNX
La vidéo YVR18-332 traite de la pile de compilateurs TVM, qui est une pile d'apprentissage en profondeur dirigée par la communauté qui prend en charge une gamme de matériel et de frontaux, y compris ONNX. L'orateur explique comment TVM peut optimiser les modèles au niveau stéréo, permettant aux développeurs d'explorer l'espace de recherche et de trouver la meilleure configuration. Ils discutent également des optimisations automatiques offertes par TVM, y compris les transformations de boucle et l'accélération GPU. L'orateur parle de la feuille de route TVM qui comprend l'activation de la prise en charge 8 bits et le réglage automatisé au niveau du graphique. De plus, ils discutent de l'interface TV ONNX et de la nécessité d'unifier l'interface standard pour tous les écosystèmes. Enfin, la vidéo s'arrête pour le déjeuner.
conçu pour explorer l'espace de recherche et trouver la meilleure configuration.
.NET MAUI Community Standup - ONNX Runtime avec Mike Parker
.NET MAUI Community Standup - ONNX Runtime avec Mike Parker
Dans cette vidéo, le conférencier invité Mike Parker présente le runtime ONNX, un outil open source et multiplateforme qui permet l'optimisation et l'accélération de l'apprentissage automatique sur plusieurs plates-formes matérielles. Parker explique l'importance d'utiliser le runtime ONNX et montre comment il peut être utilisé dans les projets .NET MAUI pour classer les images à l'aide du modèle de classification d'objets MobileNet. Les hôtes et Parker discutent des avantages de l'exécution de modèles d'apprentissage automatique sur un appareil et de la possibilité d'éviter les coûts d'infrastructure backend. De plus, l'équipe partage des ressources utiles, notamment le blog de Parker sur ce sujet et leur partenariat avec Al Blount pour le support .NET MAUI et Xamarin.
[Rencontre virtuelle] IA interopérable : ONNX et ONNXRuntime en C++ (M. Arena, M. Verasani)
[Rencontre virtuelle] IA interopérable : ONNX et ONNXRuntime en C++ (M. Arena, M. Verasani)
La vidéo aborde les défis liés à l'utilisation de différents frameworks pour former des algorithmes d'apprentissage automatique, ce qui entraîne un manque d'interopérabilité, et présente ONNX et ONNXRuntime qui visent à créer un format universel pour les modèles d'apprentissage en profondeur. ONNX convertit les réseaux de neurones en graphiques de calcul statiques, permettant des performances optimisées lors de l'inférence. ONNXRuntime permet la conversion de n'importe quel framework au format ONNX et fournit des bibliothèques d'accélération qui peuvent être utilisées pour cibler n'importe quelle plate-forme matérielle. La vidéo présente des exemples d'utilisation d'ONNX et d'ONNXRuntime, discute de leur utilisation en C++ et fournit des conseils pour mieux comprendre le projet et sa documentation.
Marco Arena et Matteo Verasani discutent également des avantages de l'utilisation d'ONNX et d'ONNXRuntime en C++ pour les modèles d'apprentissage automatique, soulignant la flexibilité du framework et sa capacité à convertir facilement des modèles à partir de différents frameworks sans sacrifier les performances. Ils fournissent des exemples de conversion de modèles au format ONNX et démontrent l'utilisation d'ONNXRuntime pour le mode d'inférence, présentant des améliorations de performances avec un modèle Python classique. De plus, ils discutent de leur travail avec les systèmes embarqués et des avantages potentiels de l'analyse comparative d'ONNXRuntime sur les GPU. Les conférenciers mentionnent également les futures rencontres virtuelles et expriment l'espoir d'intégrer davantage d'opportunités de réseautage pour les participants.
[CppDay20] IA interopérable : ONNX & ONNXRuntime en C++ (M. Arena, M. Verasani)
[CppDay20] IA interopérable : ONNX & ONNXRuntime en C++ (M. Arena, M. Verasani)
L'utilisation d'algorithmes d'apprentissage automatique et d'apprentissage en profondeur augmente, et il existe un besoin d'outils capables de déployer ces algorithmes sur différentes plates-formes. L'outil ONNX offre une interopérabilité entre différents frameworks et plateformes, permettant aux développeurs de convertir leurs algorithmes d'un framework à un autre et de les déployer sur différents appareils, même s'ils ne sont pas familiers avec le framework ou la plateforme spécifique. ONNX Runtime est un moteur d'inférence qui peut exploiter des accélérateurs personnalisés pour accélérer les modèles pendant la phase d'inférence et peut cibler une variété de plates-formes matérielles. Les conférenciers démontrent l'utilisation d'ONNX et d'ONNX Runtime dans la programmation C++, avec des exemples de modèles de régression linéaire et de réseaux de neurones. Ils discutent également des avantages de l'utilisation d'ONNX et d'ONNX Runtime pour affiner l'exécution d'un réseau, optimiser le temps de chargement et exécuter des images séquentielles.
Accélérer l'apprentissage automatique avec ONNX Runtime et Hugging Face
Accélérer l'apprentissage automatique avec ONNX Runtime et Hugging Face
La vidéo "Accelerating Machine Learning with ONNX Runtime and Hugging Face" traite de la création de la bibliothèque Optimum de Hugging Face, qui se concentre sur l'accélération des modèles de transformateurs de la formation à l'inférence en appliquant facilement le runtime ONNX. La bibliothèque simplifie le pont entre la bibliothèque de transformateurs et l'accélération matérielle, créant une boîte à outils facile à utiliser pour les performances de production. En appliquant les optimisations fournies par ONNX Runtime, les utilisateurs peuvent bénéficier de toutes les accélérations matérielles, ce qui se traduit par des pipelines d'inférence plus rapides. Une collaboration au sein de la communauté Hugging Face permet l'optimisation du modèle séquence à séquence à l'aide de ces classes de pipeline d'inférence accélérée, et un exemple de bout en bout a montré que l'utilisation de la bibliothèque Optimum peut entraîner une augmentation du débit ou une diminution de la latence de 44 % tout en conservant 99,6% de la précision du modèle d'origine.
Accélérer l'inférence ML à grande échelle avec ONNX, Triton et Seldon | PyData mondial 2021
Accélérer l'inférence ML à grande échelle avec ONNX, Triton et Seldon | PyData mondial 2021
Dans la vidéo "Accelerating ML Inference at Scale with ONNX, Triton and Seldon | PyData Global 2021", Alejandro Saucedo de Seldon Technologies discute des défis de la mise à l'échelle de l'inférence d'apprentissage automatique et de la manière d'utiliser ONNX et Triton pour optimiser et produire des modèles. En utilisant le modèle GPT-2 TensorFlow comme cas d'utilisation, la session couvre le prétraitement, la sélection des jetons optimaux et le déploiement du modèle à l'aide de Tempo et du serveur d'inférence Triton. Saucedo met l'accent sur la nécessité d'abstraire les complexités de l'infrastructure et de faciliter le déploiement tout en garantissant la reproductibilité et la conformité. L'exposé se termine par des collaborations avec des projets open source pour des composants de formation et de déploiement de bout en bout.
AI Show Live - Épisode 62 - Inférence multiplateforme avec le runtime ONNX
AI Show Live - Épisode 62 - Inférence multiplateforme avec le runtime ONNX
Dans l'épisode "Inférence multiplateforme avec ONNX Runtime" de l'AI Show Live, les hôtes montrent comment déployer un modèle de super résolution et un modèle de détection d'objets sur plusieurs plateformes à l'aide du framework ONNX Runtime. Ils discutent des étapes de prétraitement et de post-traitement pour les plates-formes mobiles et Web, démontrent les avantages de l'utilisation d'une solution unique, expliquent le processus de conversion d'un modèle PyTorch en modèle ONNX et montrent comment prétraiter les données pour l'inférence avec l'ONNX. Durée. En outre, ils démontrent la mise en œuvre du modèle de traitement du langage naturel BERT à l'aide d'Onnx Runtime en C#. Le code et les modèles open source sont disponibles pour la personnalisation des solutions des utilisateurs.
Dans la deuxième partie de l'AI Show Live, les présentateurs couvrent une variété de sujets liés à l'exécution de l'inférence avec le runtime ONNX. Ils démontrent le processus de classification de texte à l'aide d'un exemple tiré des exemples d'inférence ONNX et explorent l'installation des packages et des outils nécessaires pour créer des modèles de classification BERT en C#. Ils discutent également de l'utilisation d'IntelliCode avec VS 2022 et parcourent les étapes de préparation de l'inférence de modèle, y compris la création de tenseurs, la configuration de la session d'inférence ONNX Runtime et le post-traitement de la sortie. De plus, ils évoquent l'importance de consulter la documentation du modèle et de sélectionner le bon tokenizer pour des résultats précis.
Apprentissage automatique appliqué avec ONNX Runtime
Apprentissage automatique appliqué avec ONNX Runtime
Jennifer Looper, Principal Education Cloud Advocate chez Microsoft, discute de la convergence de la création d'applications, de l'apprentissage automatique et de la science des données dans cette vidéo. Elle recommande de créer des applications intelligentes pour le Web et explore diverses API JavaScript, notamment ml5.js, Magenta.js, PoseNet et Brain.js, pour intégrer la technologie d'apprentissage automatique dans les applications. Looper souligne l'utilité de scikit-learn pour l'apprentissage automatique classique et le recommande comme un outil puissant sans la solution lourde des réseaux de neurones. Elle aborde également le Runtime Onnx, qui optimise la formation et l'inférence en définissant un ensemble commun d'opérateurs pour la création de modèles d'apprentissage automatique et d'apprentissage en profondeur, et extrait des données de Kaggle pour expliquer le processus d'exécution d'une tâche de classification de base à l'aide d'apprentissage automatique supervisé. L'orateur montre ensuite comment créer un moteur de recommandation à l'aide de modèles d'apprentissage automatique et suggère de consulter les ressources en ligne de Microsoft pour en savoir plus sur l'apprentissage automatique. Elle conclut qu'Onnx Runtime convient aux débutants dans le cadre de leur programme ou à toute personne souhaitant en savoir plus sur l'apprentissage automatique.