Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Netron est un outil permettant de visualiser les modèles de réseaux de neurones, d'apprentissage en profondeur et d'apprentissage automatique
Aperçu rapide de Netron
Aperçu rapide de Netron
Dans la vidéo, le présentateur donne un aperçu de Netron, un outil de visualisation et d'analyse de modèles d'apprentissage automatique . Netron prend en charge divers formats et peut être installé sur plusieurs plates-formes. Le présentateur montre comment démarrer Netron et naviguer à travers plusieurs exemples de modèles, en soulignant les capacités et les limites de l'outil. Bien que Netron soit utile pour explorer des architectures de réseau plus simples, le présentateur suggère qu'il pourrait bénéficier de fonctionnalités supplémentaires pour visualiser des modèles plus complexes. Dans l'ensemble, le présentateur recommande Netron comme un outil utile pour examiner et comprendre les modèles d'apprentissage automatique.
PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, Conversion de fichier de modèle AI
[Vidéo éducative] PyTorch, TensorFlow, Keras, ONNX, TensorRT, OpenVINO, conversion de fichier de modèle AI
L'orateur de la vidéo discute des avantages et des compromis de différents frameworks d'IA, tels que PyTorch, TensorFlow, Keras, ONNX, TensorRT et OpenVINO, et recommande PyTorch comme framework préféré pour la formation et la conversion de données. L'orateur explique le processus de conversion, y compris la conversion des modèles PyTorch en ONNX, puis en TensorRT ou OpenVINO, et met en garde contre l'utilisation du fichier TensorFlow PB et de Cafe. L'orateur discute également de l'importance de définir correctement le format à virgule flottante et recommande d'utiliser le FP 32 pour la plupart des modèles. La vidéo fournit des exemples de conversion de modèles et encourage les téléspectateurs à visiter le site Web officiel pour plus de vidéos éducatives.
Nouveautés de l'environnement d'exécution ONNX
Nouveautés de l'environnement d'exécution ONNX
Cette conférence partagera les points forts des versions ONNX Runtime 1.10-1.12, y compris des détails sur les améliorations notables des performances, les fonctionnalités et les plates-formes, y compris les mobiles et le Web. Ryan Hill fait partie de l'équipe AI Frameworks depuis 4 ans, où il a principalement travaillé sur les noyaux d'opérateurs, les API C et les fournisseurs d'exécution à chargement dynamique. Avant cela, il a travaillé dans l'équipe Office PowerPoint, où son travail le plus largement vu est la plupart des transitions de diapositives de diaporama. Pour le plaisir, il aime essayer d'utiliser les dernières fonctionnalités C++ et rencontrer des erreurs internes du compilateur.Dans la vidéo, l'ingénieur logiciel Ryan Hill discute des différentes fonctionnalités et mises à jour d'ONNX Runtime, un runtime multiplateforme largement utilisé qui peut cibler plusieurs architectures de processeur. Il met en évidence les dernières fonctionnalités ajoutées à ONNX Runtime, telles que la possibilité d'appeler directement les noyaux opérationnels et les améliorations de performances telles que l'optimiseur de transposition et l'optimisation de petite taille. Hill parle également des fournisseurs d'exécution d'ONNX Runtime, qui permettent des performances optimales sur divers matériels, et de la sortie de packages mobiles prenant en charge la conversion NHWC au moment de l'exécution. La vidéo couvre également la prise en charge des opérateurs sensibles à la mise en page, la prise en charge de Xamarin pour les applications multiplateformes, le Web ONNX Runtime et la bibliothèque d'extensions ONNX Runtime qui se concentre sur le travail de pré-post-traitement du modèle, y compris les conversions de texte et les opérations mathématiques, et se concentre actuellement sur Domaines de la PNL, de la vision et du texte.
Comment nous utilisons ONNX dans Zetane pour réaliser des projets d'apprentissage automatique plus rapidement avec moins d'essais et d'erreurs
Comment nous utilisons ONNX dans Zetane pour réaliser des projets d'apprentissage automatique plus rapidement avec moins d'essais et d'erreurs
Patrick Saitama, co-fondateur et CTO de Zetane Systems, discute de la valeur de l'utilisation d'ONNX dans le nouveau produit de son entreprise pour résoudre les problèmes liés au problème de la boîte noire de l'IA. Le moteur de Zetane permet l'exploration et l'inspection des modèles ONNX, fournissant des informations sur l'interaction du modèle avec les données et conduisant à des stratégies plus décisives pour améliorer sa qualité. L'exemple donné montre comment le moteur de Zetane a aidé à déboguer un modèle de train autonome en inspectant la couche radio et en ajoutant plus d'images de tunnels étiquetés comme non-obstacles. Zetane comprend également des outils pour inspecter dynamiquement les tenseurs internes et prendre des instantanés du modèle pour une enquête ultérieure. De plus, le nouveau moteur de Zetane permet d'installer des modèles plus grands tels que YOLOv3.
v1.12.0 ONNX Runtime - Examen de la version
v1.12.0 ONNX Runtime - Examen de la version
La version v1.12.0 d'ONNX Runtime (ORT) se concentre sur l'inférence, mais inclut également des investissements continus dans la formation, l'intégration avec Hugging Face Optimum entraînant l'accélération de plusieurs modèles de Hugging Face. Les nouvelles fonctionnalités incluent la possibilité d'utiliser des opérations ORT natives dans des opérations personnalisées et d'appeler directement un opérateur natif ou d'exécution sans créer de graphique. La version inclut également la prise en charge de .NET 6 et de l'interface utilisateur d'application multiplateforme (MAUI) et des fournisseurs d'exécution pour des plates-formes spécifiques telles que Neural Processing Unit sur Android et Core ML sur iOS. Des améliorations de performances ont été apportées en réduisant les allocations de mémoire pendant l'inférence et en éliminant la journalisation inutile. Des améliorations futures pour améliorer la localité du cache et l'utilisation du pool de threads sont prévues.
v1.13 ONNX Runtime - Examen de la version
v1.13 ONNX Runtime - Examen de la version
La version 1.13 du runtime ONNX a été récemment publiée avec des correctifs de sécurité, des corrections de bogues et des améliorations de performances. La mise à jour se concentre sur l'optimisation des modèles Transformer pour la quantification GPU et ajoute la prise en charge des fournisseurs d'exécution directe ML qui sont indépendants des appareils et prennent en charge plus de 150 opérateurs. De plus, la version inclut des mises à jour de l'infrastructure mobile ORT pour la compatibilité avec les nouveaux EPS, tels que le pack XNN. L'utilisation de la quantification pour améliorer les performances des modèles basés sur Transformer est également abordée, avec l'optimisation du fournisseur d'exécution CUDA pour exécuter le modèle BERT quantifié et l'utilisation d'une formation consciente quantifiée pour maximiser la précision tout en optimisant le moteur d'exécution ONNX.
Discussion sur la feuille de route ONNX 2020 #1 20200903
Discussion sur la feuille de route ONNX 2020 #1 20200903
Le document de feuille de route ONNX, qui a été ouvert aux contributions du public, est un sujet clé de cette vidéo. La discussion couvre l'extension d'ONNX sur un pipeline d'apprentissage automatique, y compris l'évolution des données, le prétraitement et l'extension d'ONNX sur des pipelines horizontaux comme QFLO. Les suggestions faites par les contributeurs incluent la prise en charge des trames de données et l'adoption de nouveaux opérateurs pour le prétraitement. Les intervenants discutent également de l'adoption de la norme API de données Python pour étendre la prise en charge d'ONNX et garantir l'interopérabilité avec d'autres bibliothèques. De plus, les conférenciers discutent de l'intégration d'ONNX dans Kubernetes et Kubeflow pour rationaliser le développement ML pour les utilisateurs. Le groupe prévoit de continuer à évaluer l'impact de la proposition et accueille les commentaires via la feuille de route ou le comité de pilotage.
Discussion sur la feuille de route ONNX 2020 #2 20200909
Discussion sur la feuille de route ONNX 2020 #2 20200909
Dans la vidéo "ONNX Roadmap Discussion", les conférenciers discutent de divers sujets liés à la feuille de route d'ONNX, notamment l'inférence de forme, les définitions d'opérateurs, les implémentations de référence et la spécification ONNX. Les conférenciers suggèrent de construire une infrastructure d'inférence de forme générique pour améliorer l'optimisation de l'inférence de forme, réduire le nombre d'opérateurs primitifs, ajouter des implémentations de référence pour chaque opérateur et des cas de test mieux définis pour garantir une implémentation et des tests appropriés d'ONNX. Le groupe prévoit de poursuivre les discussions au sein de l'opérateur SIG et sur le forum de discussion GitHub pour l'ajout d'un nouvel opérateur.
Qu'est-ce qu'ONNX Runtime (ORT) ?
Qu'est-ce qu'ONNX Runtime (ORT) ?
ONNX Runtime (ORT) est une bibliothèque qui optimise et accélère l'inférence d'apprentissage automatique, permettant aux utilisateurs de former leurs modèles dans n'importe quelle bibliothèque d'apprentissage automatique prise en charge, d'exporter au format ONNX et d'effectuer l'inférence dans leur langue préférée. L'orateur met en évidence un exemple d'inférence effectuée à l'aide de PyTorch avec ONNX Runtime et souligne que les utilisateurs peuvent visiter ONNXRuntime.ai pour explorer les différentes API et outils requis pour leur configuration préférée.