Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Quantification pratique post-formation d'un modèle ONNX
Quantification pratique post-formation d'un modèle ONNX
La vidéo explique comment mettre en œuvre la quantification pour réduire la taille d'un modèle TensorFlow à un modèle quantifié ONNX. Le modèle ONNX est nettement plus petit et peut être exécuté plus rapidement sur un processeur. L'auteur fournit des extraits de code et des instructions sur la façon d'implémenter la quantification dynamique et de vérifier la vitesse du processeur.
La vidéo montre le processus de quantification d'un modèle d'apprentissage automatique pour le rendre plus rapide et plus léger, tout en reconnaissant que cela peut entraîner une baisse de précision. Les modèles ONNX et TensorFlow sont comparés à un modèle quantifié, ce dernier se révélant plus rapide et plus léger. Cependant, le modèle quantifié ne profite pas autant de l'utilisation des GPU que les autres modèles. La précision du modèle quantifié est ensuite évaluée et s'avère n'avoir qu'une légère baisse. Le processus de visualisation des modèles ONNX est également abordé, avec l'utilisation de l'application Loot Rodas Neutron démontrée. Le processus global entraîne une réduction de la taille du modèle d'un gigaoctet à 83 mégaoctets avec une perte de précision minimale.
QONNX : une proposition pour représenter les NN quantifiés à précision arbitraire dans ONNX
QONNX : une proposition pour représenter les NN quantifiés à précision arbitraire dans ONNX
L'orateur discute de la quantification de faible précision, avec un exemple de son application dans la communication sans fil. Ils proposent QONNX, un dialecte pour représenter des réseaux de neurones quantifiés à précision arbitraire dans ONNX. QONNX simplifie la représentation de la quantification, l'étend à un ensemble plus large de scénarios et offre des options pour différents types d'arrondis et de quantification binaire. Il est utilisé pour le déploiement sur les FPGA et est intégré à la bibliothèque de quantification Brevitas Python, NQCDQ devant être intégré dans la prochaine version.
GRCon20 - Inférence d'apprentissage profond dans GNU Radio avec ONNX
GRCon20 - Inférence d'apprentissage profond dans GNU Radio avec ONNX
La vidéo traite de l'utilisation d'ONNX en tant que format ouvert pour intégrer l'apprentissage en profondeur en tant que solution flexible et open source dans le domaine des radiofréquences. L'orateur présente son nouveau module GR DNN DN4, qui utilise les interfaces Python pour GNU Radio et ONNX, et démontre ses capacités avec un exemple de classification de modulation automatique utilisant un modèle de réseau neuronal à convolution profonde formé sur des données simulées générées par GNU Radio. Ils discutent également des exigences et des défis liés à l'utilisation de l'apprentissage en profondeur pour la classification des données SDR avec le modèle BGG16 et suggèrent d'utiliser une accélération matérielle, telle qu'un GPU, pour améliorer l'inférence et obtenir des résultats en temps réel. Le projet est open source et la collaboration est encouragée.