Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Exploitez la puissance de l'apprentissage automatique avec ONNX - Ron Dagdag
Exploitez la puissance de l'apprentissage automatique avec ONNX - Ron Dagdag
Dans cette vidéo, Ron Dagdag se penche sur l'importance des cadres d'apprentissage automatique, en particulier ONNX, qui facilite l'interopérabilité entre les cadres d'apprentissage en profondeur et le déploiement. Il décrit les moyens d'obtenir des modèles ONNX, y compris la conversion de modèles existants, la formation de modèles avec l'apprentissage automatique automatisé d'Azure et l'utilisation du service de vision personnalisée d'Azure. Dagdag met l'accent sur la décision de déployer des modèles d'apprentissage automatique dans le cloud ou à la périphérie, et il suggère de tirer parti d'ONNX pour rendre le processus plus transparent. De plus, il décrit le processus d'utilisation de ML.NET de Microsoft pour créer un modèle d'apprentissage automatique et montre comment incorporer le modèle ONNX dans une application utilisant le runtime ONNX pour l'inférence. Dagdag explore également ONNX en tant que norme ouverte pour l'apprentissage automatique, ses différentes plateformes et langages, et des outils pour réduire la taille des modèles.
Tirez parti de la puissance de l'apprentissage automatique avec ONNX | Ron Lyle Dagdag | Conf42 Apprentissage automatique 2021
Tirez parti de la puissance de l'apprentissage automatique avec ONNX | Ron Lyle Dagdag | Conf42 Apprentissage automatique 2021
Dans cette vidéo, Ron Dagdag discute des avantages de l'utilisation d'ONNX (Open Neural Network Exchange) en tant que format ouvert pour les modèles d'apprentissage automatique, en particulier lors du déploiement de modèles sur différents terminaux tels que les téléphones ou l'infrastructure cloud. Il couvre les scénarios dans lesquels la conversion d'un modèle en ONNX peut être utile, comme les faibles performances ou la combinaison de modèles formés sur différents frameworks, et décrit comment des modèles populaires tels que RestNet peuvent être téléchargés au format ONNX. En outre, il discute des avantages de l'exécution de modèles d'apprentissage automatique en périphérie, ainsi que de l'importance de gérer les modèles en les enregistrant dans le cloud et en les versionnant. Il montre comment convertir un modèle en ONNX et comment utiliser le runtime ONNX en Python pour l'inférence, et conclut en soulignant le rôle d'ONNX pour permettre aux scientifiques des données et aux ingénieurs en logiciel de travailler ensemble efficacement.
Inférence en JavaScript avec ONNX Runtime Web !
Inférence en JavaScript avec ONNX Runtime Web !
La vidéo couvre l'utilisation d'ONNX Runtime Web dans le navigateur via un modèle Next.js qui offre une interface utilisateur pour exécuter l'inférence sur des images présélectionnées. Le processus de conversion des données d'image en un tenseur à l'aide des valeurs RVB et de la création de dimensions est démontré. La fonction d'assistance de modèle est explorée, qui transmet des données prétraitées à la session d'inférence ONNX en utilisant le chemin d'accès au modèle, au fournisseur d'exécution et aux options de session. Les flux du modèle sont créés à l'aide du nom d'entrée et de l'objet tenseur et sont transmis à la fonction session.run pour obtenir les cinq premiers résultats. Le premier résultat remplit l'affichage de l'image tandis que la configuration du pack Web et les instructions pour l'inférence côté serveur à l'aide du nœud d'exécution ONNX sont fournies.
Ron Dagdag - Création de réseaux de neurones dans le navigateur avec ONNX
Ron Dagdag - Création de réseaux de neurones dans le navigateur avec ONNX
Dans cette vidéo, Ron Dagdag explique comment le cadre d'apprentissage automatique ONNX peut être utilisé pour exécuter des réseaux de neurones dans un navigateur. Il aborde les bases de l'apprentissage automatique, la création et le déploiement de modèles ONNX et l'environnement d'exécution ONNX. Dagdag démontre l'utilisation d'ONNX avec divers exemples, notamment la prévision des salaires en fonction de l'expérience de travail et la détection des émotions dans les images. Il couvre également le déploiement des modèles ONNX sur différentes plates-formes, telles qu'Android et iOS, et met en évidence les ressources et les démos disponibles pour expérimenter ONNX. Dagdag encourage l'expérimentation avec ONNX et souligne l'importance d'une inférence efficace sur les plates-formes cibles utilisant le runtime ONNX.
Faire fonctionner les réseaux de neurones dans un navigateur avec ONNX - Ron Dagdag - NDC Melbourne 2022
Faire fonctionner les réseaux de neurones dans un navigateur avec ONNX - Ron Dagdag - NDC Melbourne 2022
Ron Dagdag partage son expertise sur l'exécution de réseaux de neurones dans les navigateurs avec ONNX. Il aborde les bases de la programmation et en quoi elle diffère de l'apprentissage automatique, la disponibilité de JavaScript et des frameworks d'apprentissage automatique, et comment les modèles d'apprentissage automatique peuvent s'exécuter sur différents appareils, y compris les téléphones, les IoT et le cloud. Il présente ONNX, qui est un format ouvert pour les modèles d'apprentissage automatique qui peut intégrer des modèles créés dans différents cadres avec des applications existantes dans différents langages de programmation. Dagdag montre comment créer, gérer et déployer des modèles ONNX, en incorporant les technologies d'exécution ONNX, d'assemblage Web et Web GL pour exécuter des modèles ONNX dans des navigateurs tout en optimisant les performances, la sécurité et les coûts. La vidéo couvre également la notation des modèles pré-formés sur les appareils mobiles, les considérations de coût et les avantages de l'exécution de la détection d'objets plus près de la périphérie pour le traitement local de grandes quantités de données.
Linux Foundation Artificial Intelligence & Data Day - Réunion de la communauté ONNX - 21 octobre 2021
Emma Ning (Microsoft) Web d'exécution ONNX pour l'inférence dans le navigateur
001 ONNX 20211021 Web d'exécution Ning ONNX pour l'inférence dans le navigateur
Emma, chef de produit de l'équipe Microsoft AI Framework, présente ONNX Runtime Web, une nouvelle fonctionnalité d'ONNX Runtime qui permet aux développeurs JavaScript d'exécuter et de déployer des modèles d'apprentissage automatique dans un navigateur, avec deux backends, dont l'assemblage Web pour le CPU et WebGL pour le GPU. Le backend d'assemblage Web peut exécuter n'importe quel modèle ONNX, tirer parti du multithreading et du SIMD, et prendre en charge la plupart des fonctionnalités natives prises en charge par ONNX Runtime, tandis que le backend WebGL est une implémentation purement basée sur JavaScript avec des API WebGL. Le conférencier discute également de la compatibilité des opérateurs ONNX avec les deux backends, fournit des extraits de code pour créer une session d'inférence et exécuter un modèle, et présente un site Web de démonstration présentant plusieurs scénarios de modèles d'images dans le navigateur alimentés par le modèle MobileNet. Cependant, l'orateur reconnaît également qu'il y a encore place à amélioration pour améliorer les performances et la consommation de mémoire du runtime Web ONNX et étendre les opérateurs ONNX pris en charge.
Atelier Web et Machine Learning W3C Été 2020
ONNX.js - Une bibliothèque Javascript pour exécuter des modèles ONNX dans les navigateurs et Node.js
ONNX.js - Une bibliothèque Javascript pour exécuter des modèles ONNX dans les navigateurs et Node.js
ONNX.js est une bibliothèque JavaScript qui permet aux utilisateurs d'exécuter des modèles ONNX dans les navigateurs et Node.js. Il optimise le modèle sur le CPU et le GPU avec diverses techniques et prend en charge le profilage, la journalisation et le débogage pour une analyse facile. La bibliothèque prend en charge tous les principaux navigateurs et plates-formes et permet la parallélisation à l'aide de travailleurs Web pour de meilleures performances sur les machines multicœurs. En utilisant WebGL pour accéder aux capacités du GPU, il offre des améliorations significatives des performances et réduit le transfert de données entre le CPU et le GPU. Bien qu'une optimisation et un soutien supplémentaires de l'opérateur soient nécessaires, l'orateur encourage les contributions de la communauté pour améliorer ONNX.js.
Comment exécuter des modèles PyTorch dans le navigateur avec ONNX.js
Comment exécuter des modèles PyTorch dans le navigateur avec ONNX.js
La vidéo explique les avantages de l'exécution d'un modèle PyTorch dans un navigateur à l'aide de JavaScript et ONNX.js, notamment un meilleur temps de réponse, l'évolutivité, la disponibilité hors ligne et une meilleure confidentialité des utilisateurs. La vidéo décrit également le processus de conversion d'un modèle PyTorch en modèle ONNX, de son chargement dans une session ONNX.js et de l'exécution de l'inférence dans le navigateur. La préparation des données, le débogage et les augmentations sont également abordés, et l'orateur montre comment rendre le modèle plus robuste en utilisant des techniques d'augmentation des données. La vidéo fournit un exemple de code et un site Web de démonstration permettant aux utilisateurs d'essayer le modèle par eux-mêmes.
Classification des chiffres sur CPU avec démo ONNX Runtime
Classification des chiffres sur CPU avec démo ONNX Runtime
Open Neural Network Exchange (ONNX) fournit un format open source pour les modèles d'apprentissage en profondeur et d'apprentissage automatique. Nous pouvons former nos modèles dans le cadre que nous préférons, puis convertir le modèle au format ONNX. Avec ONNX Runtime de Microsoft, nous pouvons exécuter une session d'inférence avec des modèles onnx sur tous les environnements, ce qui nous donne une implémentation légèrement plus rapide. Voici une démonstration simple de la même chose. Le modèle est formé pour reconnaître les chiffres à l'aide de l'ensemble de données MNIST avec PyTorch. J'exécute une session d'inférence sur un processeur Linux.
https://github.com/NagarajSMurthy/Digit-recognizer
Des milliards d'inférences NLP sur la JVM en utilisant ONNX et DJL
Des milliards d'inférences NLP sur la JVM en utilisant ONNX et DJL
Le CTO d'une société d'intelligence médiatique explique comment ils utilisent la JVM et DJL et Hugging Face pour la tokenisation NLP dans le pipeline d'apprentissage automatique afin d'exploiter le paysage médiatique pour divers cas d'utilisation. Au fur et à mesure que les caractéristiques de leurs produits l'ont poussé, leur système d'apprentissage et de modélisation automatique est devenu un élément essentiel pour que tout fonctionne, car ils ont atteint une échelle où le processeur ne pouvait plus suffire. Ils sont passés d'un modèle 32 bits à virgule flottante à un modèle 16 bits, ce qui a entraîné une augmentation de 3 % de l'efficacité, mais a dû faire face à des erreurs de conversion et à de rares fuites de mémoire au cours du processus, qu'ils ont résolues en remplaçant plusieurs implémentations. Ils ont investi dans la robustesse en ajoutant des CI alimentés par GPU et en mettant en place une pile logique Prometheus avancée qui surveille la latence de diverses inférences et la latence de tokenisation. Leurs plans futurs incluent l'amélioration de l'efficacité du GPU et l'ajout de plus de modèles au système en créant une configuration multi-GPU.