Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
CS 198-126 : Cours 19 - Préformation avancée de la vision
CS 198-126 : Cours 19 - Préformation avancée de la vision
Cette vidéo couvre diverses techniques utilisées pour la préformation auto-supervisée en vision avancée, y compris l'apprentissage contrastif, les auto-encodeurs de débruitage, les encodeurs de contexte et le réseau Mae. L'orateur donne un aperçu de chaque méthode, discute de ses forces et de ses faiblesses, et souligne les avantages de combiner les pertes contrastives et de reconstruction dans la méthode BYOL, qui surpasse les deux individuellement. La vidéo fournit des informations utiles sur les dernières tendances de la recherche en matière d'apprentissage auto-supervisé et leur potentiel pour améliorer les performances des modèles de vision par ordinateur.
CS 198-126 : Cours 20 - Styliser les images
CS 198-126 : Cours 20 - Styliser les images
La vidéo présente diverses techniques de stylisation d'image, notamment le transfert de style neuronal, les GAN et Pix2Pix, qui nécessitent des données appariées, et CycleGAN, qui utilise des données non appariées pour la traduction d'image à image. Les limites de CycleGAN peuvent être résolues par StarGAN, qui peut prendre des informations de plusieurs domaines pour former des générateurs pour des tâches de transition d'images multi-domaines. L'orateur discute également de la traduction image à image multimodale non supervisée utilisant des informations de domaine et des codes latents de faible dimension pour produire diverses sorties, illustrées par le modèle BicycleGAN. Enfin, les avantages potentiels de l'utilisation de Vision Transformers avec des GAN pour les tâches de traduction d'images sont mentionnés, et la conférence se termine par des exemples d'images amusants et une opportunité de questions et de discussion.
CS 198-126 : Cours 21 - Audio génératif
CS 198-126 : Cours 21 - Audio génératif
Dans cette conférence sur l'audio génératif, le présentateur aborde divers sujets tels que la quantification, l'aliasing, le traitement du signal, les projections, l'apprentissage en profondeur et les transformateurs. Le conférencier explique comment échantillonner et quantifier des signaux continus et le compromis entre la précision des profondeurs de bits et la puissance de calcul. Le théorème d'échantillonnage de Shannon-Nequist et ses effets sur la reconstruction des signaux et l'importance des projections et leur utilisation pour la reconstruction des signaux sont également expliqués. L'apprentissage en profondeur est exploré pour la reconstruction audio, et le présentateur présente l'audio génératif et comment il peut reconstruire la musique à partir d'enregistrements perdus ou endommagés. L'utilisation de Transformers est discutée pour la génération audio, et le processus de représentation de la musique comme une série de jetons est expliqué. L'orateur souligne également l'importance d'avoir un ensemble de données vaste et varié et discute du fonctionnement du modèle de transformateur pour les prédictions musicales. La conférence se termine par une démonstration de musique générée, montrant la capacité du modèle à prédire avec précision les notes futures.
CS 198-126 : Cours 22 - Apprentissage multimodal
CS 198-126 : Cours 22 - Apprentissage multimodal
L'apprentissage multimodal consiste à représenter des objets de différentes manières, par exemple à travers du texte, des images, des vidéos ou de l'audio, tout en reconnaissant qu'il s'agit du même objet. Les conférences expliquent l'importance de l'apprentissage multimodal dans la capture de divers ensembles de données et la résolution du problème de décalage de distribution. La vidéo se concentre sur CLIP, une méthode de pré-formation d'images en langage contrastif, qui utilise des encodeurs de texte et d'image pour créer des incorporations pour des paires image-légende similaires. Les intégrations peuvent être utilisées pour la classification, la robotique, la génération de texte en image et la vision 3D. L'orateur souligne que l'universalité des latentes CLIP montre l'importance de l'apprentissage des représentations et son utilité dans l'apprentissage automatique. La méthode CLIP a fait évoluer le domaine de l'apprentissage multimodal.
Tensorflow pour la recherche en apprentissage profond - Cours 1
Tensorflow pour la recherche en apprentissage profond - Cours 1
La vidéo "Tensorflow for Deep Learning Research - Lecture 1" présente le didacticiel sur TensorFlow en couvrant la nécessité d'un didacticiel approfondi, expliquant les bases et les applications pratiques de la bibliothèque. La conférence explique comment créer et structurer des modèles à l'aide de TensorFlow dans une perspective d'apprentissage en profondeur. Le didacticiel couvre également les outils utilisés dans TensorBoard pour visualiser un modèle de graphe de calcul, y compris comment opérer avec des nœuds, des arêtes et des sessions, qui fournissent des options de calcul efficaces en exécutant des sous-graphes. Le conférencier recommande d'apprendre TensorFlow à partir de zéro pour créer des modèles personnalisés et gérer efficacement les ressources, avec la possibilité de fonctionner sur CPU, GPU, Android ou iOS, tout en offrant la possibilité de déployer des modèles.
Tensorflow pour la recherche en apprentissage profond - Cours 2
Tensorflow pour la recherche en apprentissage profond - Cours 2
La conférence sur TensorFlow pour Deep Learning Research couvre un large éventail de sujets, y compris les opérations de base, les types de tenseurs, les espaces réservés et le chargement différé. L'importance d'utiliser TensorBoard pour visualiser le graphique en cours d'exécution est soulignée, et diverses fonctions de l'API TensorFlow sont discutées, y compris le mélange aléatoire, le recadrage aléatoire, le multinomial TF.dot et la fonction gamma aléatoire. La vidéo couvre également les concepts de définition de l'état zéro pour différents types de données, l'initialisation de variables, leur attribution de valeurs et les avantages de l'utilisation d'une session interactive TensorFlow. Enfin, l'utilisation d'espaces réservés dans TensorFlow est abordée en détail, et les problèmes potentiels liés à l'utilisation d'espaces réservés avec des formes non définies sont discutés.
L'orateur discute également de l'utilisation des espaces réservés dans TensorFlow, notamment de la façon d'alimenter plusieurs points de données et d'utiliser des dicts gratuits. La conférence passe ensuite au chargement paresseux, où le calcul est différé jusqu'à l'exécution pour éviter de gonfler le graphe causé par plusieurs nœuds de la même opération dans des boucles. Séparer la définition des objets d'opération du code de calcul et de structuration pour les définitions de variables et les fonctions de calcul permet d'éviter les problèmes d'appel de fonctions dans TensorFlow. L'orateur explique également comment l'optimiseur minimise l'entropie croisée et met à jour les poids et les biais tout en utilisant des propriétés pour structurer efficacement le code TensorFlow.
Tensorflow pour la recherche en apprentissage profond - Cours 3
Tensorflow pour la recherche en apprentissage profond - Cours 3
La troisième conférence sur TensorFlow pour la recherche en apprentissage profond couvre la régression linéaire et la régression logistique à l'aide de l'ensemble de données MNIST. Le conférencier montre comment former un modèle de régression linéaire dans TensorFlow en créant des espaces réservés pour les données d'entrée, en initialisant des variables pouvant être formées pour les poids et les biais, en proposant des prédictions, en calculant la perte et en définissant l'optimiseur comme une descente de gradient avec un taux d'apprentissage spécifique. La conférence explique également la descente de gradient stochastique en mini-lots et l'importance de se souvenir de la forme des variables. La précision du modèle est calculée en comparant l'indice de la valeur maximale obtenue à partir de la fonction TF argmax avec la variable cible y, en calculant le nombre de prédictions correctes à l'aide de TF reduce sum et TF float, et en le divisant par le nombre total de test exemples. Enfin, le conférencier note que ce modèle n'est pas considéré comme puissant et qu'il existe des modèles plus robustes tels que les couches convolutionnelles qui offrent une plus grande précision.
Tensorflow pour la recherche en apprentissage profond - Cours 4
Tensorflow pour la recherche en apprentissage profond - Cours 4
Dans la conférence 4 de la série TensorFlow for Deep Learning Research, l'orateur se penche sur les incorporations de mots dans le traitement du langage naturel basé sur l'apprentissage en profondeur. La conférence explique le concept d'apprentissage des incorporations de mots pour les problèmes de PNL et décrit le processus de représentation des mots sous forme de vecteurs numériques dans les réseaux de neurones. La conférence aborde différentes méthodes de génération de vecteurs de mots à l'aide de CBOW basé sur l'IA et de sauts de grammes et aborde le problème de la complexité de calcul dans softmax en utilisant l'échantillonnage négatif et le NCE. En outre, le conférencier met en évidence le processus d'intégration de variables dans TensorFlow et d'utilisation de t-SNE pour visualiser des vecteurs de mots de grande dimension dans des dimensions réduites. Enfin, la conférence se termine par un résumé des concepts abordés et un bref sur la prochaine conférence, qui se concentrera sur la construction de modèles de mots.
Tensorflow pour la recherche en apprentissage profond - Cours 5_1
Tensorflow pour la recherche en apprentissage profond - Cours 5_1
La cinquième conférence de la série TensorFlow for Deep Learning Research couvre plusieurs sujets, notamment comment gérer efficacement les expériences d'apprentissage profond, l'importance de la différenciation automatique dans TensorFlow et le processus de formation des modèles et d'enregistrement des variables. L'orateur explique que la différenciation automatique est fournie dans les cadres d'apprentissage en profondeur comme TensorFlow, ce qui permet aux utilisateurs de coder plus facilement leurs modèles sans avoir à gérer les gradients. Bien qu'il ne soit pas essentiel de calculer manuellement les gradients, il est toujours utile de les calculer pour des fonctions et des réseaux simples. La création d'un modèle de reconnaissance d'entité nommée avec des sous-classes et les espaces réservés et techniques d'alimentation nécessaires est également couverte, ainsi que l'enregistrement et la restauration de variables dans TensorFlow et le processus d'enregistrement de modèles sur différentes sessions et machines.
Tensorflow pour la recherche en apprentissage profond - Cours 5_2
Tensorflow pour la recherche en apprentissage profond - Cours 5_2
Le didacticiel vidéo traite de la mise en œuvre des opérations récapitulatives TF, qui permettent de visualiser les données dans TensorBoard. Le didacticiel couvre trois types d'opérations récapitulatives - TF.summary.scalar, TF.summary.histogram et TF.summary.image - et explique comment les fusionner en un seul et les écrire dans un fichier d'événements à l'aide de la classe FileWriter. Le conférencier montre comment utiliser les portées de nom pour visualiser le graphique dans TensorBoard et définit un rédacteur de test et un rédacteur formé pour écrire des résumés dans des fichiers séparés. Ils mettent l'accent sur l'utilisation des capacités de visualisation de TensorBoard pour mieux comprendre les performances de son modèle. Dans l'ensemble, TensorBoard est un outil crucial pour suivre les progrès de la formation, et l'API pour ajouter des opérations et les fusionner est simple.