![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
CS 198-126 : Cours 9 - Autoencodeurs, VAE, Modélisation Générative
CS 198-126 : Cours 9 - Autoencodeurs, VAE, Modélisation Générative
Dans cette conférence, le concept de modélisation générative est introduit, qui consiste à utiliser l'apprentissage automatique pour créer de nouvelles images basées sur un ensemble de données. Les auto-encodeurs, un type de réseau neuronal utilisé pour l'apprentissage des caractéristiques, sont expliqués, en se concentrant sur leur structure et sur la façon dont ils peuvent apprendre les caractéristiques des données d'entrée par compression et reconstruction. Le cours couvre également les auto-encodeurs variationnels et leurs avantages, ainsi que l'utilisation d'espaces latents structurés dans les auto-encodeurs pour interpoler entre les images. L'importance de la quantification vectorielle pour travailler avec des données discrètes est discutée, et la fonction de perte pour un auto-encodeur variationnel est expliquée, qui comprend une perte de reconstruction et une perte d'engagement pour empêcher le codage en dur des données d'entrée. La conférence se termine par un récapitulatif des sujets abordés.
CS 198-126 : Cours 10 - GAN
CS 198-126 : Cours 10 - GAN
La conférence sur les GAN introduit le concept de deux réseaux, le discriminateur et le générateur, en compétition l'un contre l'autre dans une configuration de théorie des jeux. L'entrée du générateur est un bruit aléatoire, auquel il attribue une signification pour générer des images d'apparence réelle, et le travail du discriminateur consiste à juger si l'image est réelle ou fausse. Les GAN utilisent une fonction de perte qui correspond à une perte d'entropie croisée négative, le générateur voulant la minimiser et le discriminateur voulant la maximiser. La fonction de valeur représente la performance du générateur et doit être maximisée par le discriminateur en classant correctement les données fausses et réelles. La conférence couvre également les problèmes de formation des GAN et la perte non saturante qui permet au générateur d'avoir plus d'agence pour changer.
CS 198-126 : Cours 11 - GAN avancés
CS 198-126 : Cours 11 - GAN avancés
Cette conférence sur les GAN avancés couvre diverses techniques pour améliorer la stabilité et la qualité des modèles GAN, y compris le suréchantillonnage bilinéaire, la convolution transposée, les GAN conditionnels, StyleGAN et CycleGAN. La conférence aborde également l'utilisation du bruit aléatoire contrôlé, la normalisation adaptative des instances et le traitement des vidéos dans les GAN. Pour obtenir une meilleure stabilité et de meilleurs résultats, le conférencier recommande d'utiliser de plus grandes tailles de lots et de tronquer la plage de bruit aléatoire pendant les tests, tout en mettant en garde contre un nerf excessif du discriminateur. De plus, il est suggéré de commencer par une large distribution de différentes tailles d'espace latent pour générer une variété d'images. Enfin, la conférence aborde le Big Gan, qui permet de générer des GAN à très grande échelle.
CS 198-126 : Cours 12 - Modèles de diffusion
CS 198-126 : Cours 12 - Modèles de diffusion
Dans cette conférence sur les modèles de diffusion, l'orateur discute de l'intuition derrière les modèles de diffusion - prédire le bruit ajouté à une image et le débruiter pour obtenir l'image originale. La conférence couvre le processus de formation, l'architecture améliorée et des exemples de modèles de diffusion dans la génération d'images et de vidéos. De plus, la conférence approfondit les modèles de diffusion latente, qui compriment le modèle dans un espace latent pour exécuter la diffusion sur la partie sémantique de l'image. Le conférencier donne également un aperçu des modèles connexes tels que Dolly Q, le modèle Imagine de Google et Make a Video de Facebook, et leur capacité à générer des modèles 3D à l'aide de texte.
CS 198-126 : Cours 13 - Introduction à la modélisation de séquences
CS 198-126 : Cours 13 - Introduction à la modélisation de séquences
Dans cette conférence sur la modélisation de séquences, le conférencier introduit l'importance de représenter les données de séquences et d'atteindre un nombre raisonnable de pas de temps sans perdre trop d'informations. Les réseaux de neurones récurrents (RNN) sont discutés comme une première tentative pour résoudre ces défis, qui ont la capacité de gérer des longueurs variables d'entrées et de sorties. Cependant, des problèmes avec les RNN les empêchent de fonctionner de manière optimale. L'incorporation de texte est introduite comme un moyen plus efficace de représenter des données textuelles, plutôt que d'utiliser un vecteur unique à haute dimension. De plus, le concept de codage positionnel est discuté comme un moyen de représenter l'ordre des éléments dans une séquence en utilisant des valeurs continues, plutôt que des valeurs binaires.
CS 198-126 : Cours 14 - Transformateurs et attention
CS 198-126 : Cours 14 - Transformateurs et attention
Cette conférence vidéo sur les transformateurs et l'attention couvre le concept et la motivation derrière l'attention, sa relation avec les transformateurs et son application dans la PNL et la vision. Le conférencier discute de l'attention douce et dure, de l'auto-attention, de l'attention locale et de l'attention multi-têtes, et de la manière dont elles sont utilisées dans l'architecture Transformer. Ils expliquent également le système clé-valeur-requête, l'importance des connexions résiduelles et de la normalisation des couches, ainsi que le processus d'application d'une couche linéaire pour obtenir kqv à partir des incorporations d'entrée. Enfin, la conférence couvre l'utilisation des intégrations de position et du jeton CLS dans des exemples de séquence à vecteur tout en soulignant l'efficacité de calcul et l'évolutivité du mécanisme d'attention.
CS 198-126 : Cours 15 - Transformateurs de vision
CS 198-126 : Cours 15 - Transformateurs de vision
Dans cette conférence, le conférencier discute de l'utilisation des transformateurs de vision (ViT) pour les tâches de traitement d'images. L'architecture ViT implique le sous-échantillonnage des images en patchs discrets, qui sont ensuite projetés dans des intégrations d'entrée à l'aide d'une sortie de couche linéaire avant de passer par un transformateur. Le modèle est pré-entraîné sur un grand ensemble de données étiqueté avant d'être ajusté sur l'ensemble de données réel, ce qui se traduit par d'excellentes performances avec moins de calcul que les méthodes de pointe précédentes. Les différences entre les ViT et les réseaux de neurones convolutifs (CNN) sont discutées, les ViT ayant un champ réceptif global et plus de flexibilité que les CNN. L'utilisation de l'apprentissage auto-supervisé et non supervisé avec Transformers pour les tâches de vision est également mise en évidence.
CS 198-126 : Cours 16 - Détection d'objet avancée et segmentation sémantique
CS 198-126 : Cours 16 - Détection d'objet avancée et segmentation sémantique
Dans cette conférence avancée sur la détection d'objets et la segmentation sémantique, le conférencier discute des avantages et des inconvénients des réseaux de neurones convolutifs (CNN) et des transformateurs, en particulier dans le traitement du langage naturel (NLP) et la vision par ordinateur. Alors que les CNN excellent dans le biais textural, les transformateurs gèrent efficacement les tâches de NLP et de vision par ordinateur en utilisant des couches d'auto-attention pour lier des concepts importants et se concentrer sur des entrées spécifiques. La conférence se penche ensuite sur les transformateurs de vision, qui privilégient la forme à la texture, les rendant résistants à la distorsion. Il explique en outre les avantages et les limites du Swin Transformer, une version améliorée du Vision Transformer, qui excelle dans la classification d'images, la segmentation sémantique et la détection d'objets. La conférence met l'accent sur l'importance de la généralisabilité dans les modèles qui peuvent gérer tout type de données, et les applications potentielles dans des domaines tels que les voitures autonomes.
CS 198-126 : Cours 17 - Enquête sur la vision 3D, partie 1
CS 198-126 : Cours 17 - Enquête sur la vision 3D, partie 1
La vidéo traite de différentes représentations visuelles 3D et de leurs avantages et inconvénients, notamment les nuages de points, les maillages, les voxels et les champs de rayonnement. La conférence couvre également le raycasting, en avant et en arrière, ainsi que la colorisation et le rendu d'images pour des objets qui se croisent, avec différentes approches pour les solides et les transparences. Le conférencier aborde les limites du rendu différentiable et comment Radiance Fields peut créer une fonction pour chaque point XYZ avec une densité et une couleur physique, ce qui le rend plus facile à apprendre.
CS 198-126 : Cours 18 - Enquête sur la vision 3D, partie 2
CS 198-126 : Cours 18 - Enquête sur la vision 3D, partie 2
Dans cette conférence sur la vision 3D, l'instructeur aborde les champs de rayonnement, en particulier les champs de rayonnement neuronal (NeRF), qui prennent position dans l'espace et produisent de la couleur et de la densité. L'orateur explique le processus de rendu, qui consiste à interroger du point de vue de la caméra et à utiliser la fonction de boîte noire pour déterminer à quoi ressemblera l'image. Les conférences discutent des défis liés à la représentation de perspectives cohérentes d'objets en vision 3D et de l'utilisation de MLP pour prendre en compte les données XYZ d'un objet et la direction de la vue pour la densité de sortie et les informations RVB. La conférence couvre également les défis du rendu volumétrique et de l'utilisation des dérivés Nerf pour améliorer la vision par ordinateur. L'instructeur termine en démontrant l'utilisation de la contraction de l'espace pour générer des images 3D réalistes à l'aide d'un réseau de neurones.