Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
L'intuition derrière la rétropropagation en tant que graphe informatique
L'intuition derrière la rétropropagation en tant que graphe informatique
L'intuition derrière la rétropropagation en tant que graphe de calcul est expliquée dans cette vidéo. L'orateur explique comment une fonction de substitution est utilisée pour estimer la fonction empirique qui mappe les entrées aux sorties, et que l'objectif est de trouver les paramètres qui minimisent la fonction de perte. La rétropropagation permet de calculer le gradient de la fonction de perte par rapport à chaque paramètre par une passe arrière du graphe. Les gradients locaux pour chaque porte du graphique sont calculés et peuvent être utilisés pour calculer le gradient de la sortie finale par rapport à chaque entrée. L'orateur explique également comment gérer les gradients pour les opérations de branchement et de vectorisation et comment s'assurer que la dimensionnalité fonctionne lors du calcul des dérivées.
Production de l'apprentissage profond pour la vision par ordinateur
Production de l'apprentissage profond pour la vision par ordinateur
Le directeur technique et scientifique en chef de Jumio, Lavash Patel, explique comment leur entreprise utilise un mélange d'experts en intelligence artificielle et en identification pour établir la confiance en ligne et vérifier l'authenticité des documents d'identité. Le processus de vérification d'identité est difficile en raison de la variété des identifiants et des sous-types, ainsi que de la nécessité de rectifier et de rejeter les images illisibles. Pour maintenir l'exactitude, une approche humaine dans la boucle est adoptée, où les modèles d'IA détectent les problèmes et un humain effectue une vérification de l'intégrité des résultats. Patel explique également comment Jumio produit l'apprentissage en profondeur à l'aide d'un algorithme d'apprentissage actif hybride, qui s'adapte aux nouveaux sous-types et s'améliore en se recyclant. De plus, il souligne l'importance de données propres dans la reconnaissance faciale et le maintien de la conformité PCI lorsqu'il s'agit de traiter des données sensibles à des fins d'apprentissage automatique.
Gail Weiss : Penser comme des transformateurs
Gail Weiss : Penser comme des transformateurs
Gail Weiss aborde le concept des encodeurs à transformateur dans cette vidéo, expliquant leur capacité à traiter des séquences et à les encoder en vecteurs. Weiss met en évidence plusieurs études explorant les forces et les limites des encodeurs de transformateur et introduit un langage de programmation appelé langage de traitement de séquence à accès restreint (RASP) pour représenter les capacités des encodeurs de transformateur. Elle discute également de l'attention à plusieurs têtes, des modèles de sélection et des défis de softmax dans certaines conditions, avant de se plonger dans l'utilisation d'opérateurs de séquence et de fonctions de bibliothèque pour calculer l'inverse et le sélecteur inversé. Weiss donne un aperçu de la création d'un programme optimal pour un transformateur et des idées des transformateurs universels et sandwich, discutant finalement du prédicat sélectionné et des relations binaires par rapport à l'ordre trois.
Il parle également des avantages et des inconvénients potentiels de l'utilisation d'une attention d'ordre supérieur dans les modèles de transformateurs, ainsi que de l'importance des connexions résiduelles dans le maintien des informations à travers les couches. Elle discute également des problèmes potentiels avec des transformateurs très profonds s'écartant du modèle RASP et suggère l'utilisation d'intégrations plus longues pour surmonter le flou des informations.
Visualiser et comprendre les réseaux de neurones profonds par Matt Zeiler
Visualiser et comprendre les réseaux de neurones profonds par Matt Zeiler
Matt Zeiler discute de la visualisation et de la compréhension des réseaux de neurones convolutionnels (CNN) pour la reconnaissance d'objets dans les images et les vidéos. Il décrit les performances des réseaux de neurones profonds par rapport aux humains et aux primates dans la reconnaissance des objets et montre comment les CNN apprennent à identifier les objets en parcourant les couches. Zeiler explique le processus d'amélioration de l'architecture CNN et discute des limites lors de la formation avec des données limitées. Enfin, il répond aux questions sur l'utilisation des couches inférieures dans les couches supérieures et l'application des convolutions dans les réseaux de neurones.
Comment ChatGPT est formé
Comment ChatGPT est formé
ChatGPT est un système d'apprentissage automatique conçu pour imiter la conversation humaine. Il est d'abord formé à l'aide d'une approche générative de pré-formation qui s'appuie sur des quantités massives de données textuelles non structurées, puis affiné à l'aide de l'apprentissage par renforcement pour mieux s'adapter aux préférences de l'utilisateur.
Le VRAI potentiel de l'IA générative
Le VRAI potentiel de l'IA générative
L'IA générative a le potentiel de révolutionner la façon dont les produits sont créés, en aidant les développeurs dans le prototypage, l'évaluation et la personnalisation. Cependant, la technologie en est encore à ses débuts et des recherches supplémentaires sont nécessaires pour s'assurer qu'elle est utilisée de manière éthique et sûre.
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introduction à l'apprentissage automatique (MLVU2019)
Vrije Universiteit Amsterdam Machine Learning 2019 - 1 Introduction à l'apprentissage automatique (MLVU2019)
Cette vidéo fournit une introduction à l'apprentissage automatique et couvre divers sujets qui s'y rapportent. L'instructeur explique comment se préparer au cours et répond aux préoccupations courantes concernant l'apprentissage automatique intimidant. Il présente les différents types d'apprentissage automatique et le distingue de la programmation traditionnelle basée sur des règles. La vidéo couvre également les bases de l'apprentissage supervisé et fournit des exemples de la façon dont l'apprentissage automatique peut être utilisé pour les problèmes de classification et de régression. Les concepts d'espace des caractéristiques, de fonction de perte et de résidus sont également expliqués.
La deuxième partie de la vidéo fournit une introduction à l'apprentissage automatique et explique son objectif principal de trouver des modèles et de créer des modèles précis pour prédire les résultats à partir d'un ensemble de données. Le conférencier discute de l'importance d'utiliser des algorithmes spécifiques et de diviser les données pour éviter le surajustement et parvenir à la généralisation. Il introduit également le concept d'estimation de la densité et ses difficultés avec des données complexes. L'orateur clarifie la différence entre l'apprentissage automatique et d'autres domaines et fait allusion à une stratégie pour décomposer les grands ensembles de données afin de faire des prédictions précises. La vidéo mentionne également l'augmentation du nombre de personnes travaillant dans l'apprentissage automatique avec le développement de l'apprentissage en profondeur et fournit des conseils aux débutants pour se lancer dans le domaine.
2 modèles linéaires 1 : hyperplans, recherche aléatoire, descente de gradient (MLVU2019)
2 modèles linéaires 1 : hyperplans, recherche aléatoire, descente de gradient (MLVU2019)
Cette vidéo couvre les bases des modèles linéaires, des méthodes de recherche et des algorithmes d'optimisation. Les modèles linéaires sont expliqués à la fois en 2 dimensions et en plusieurs dimensions, et le processus de recherche d'un bon modèle par des méthodes telles que la recherche aléatoire et la descente de gradient est discuté. L'importance de la convexité dans l'apprentissage automatique est expliquée et les inconvénients de la recherche aléatoire dans les paysages non convexes sont abordés. La vidéo présente également les méthodes évolutives et la recherche par branchement comme méthodes de recherche. Enfin, l'utilisation du calcul et de la descente de gradient pour optimiser la fonction de perte est expliquée, y compris le processus de recherche de la direction de descente la plus raide pour un hyperplan.
La deuxième partie traite de la descente de gradient et de son application aux modèles linéaires, où l'algorithme met à jour les paramètres en prenant des mesures dans la direction du gradient négatif de la fonction de perte. Le taux d'apprentissage est crucial pour déterminer la rapidité avec laquelle l'algorithme converge vers le minimum, et les fonctions linéaires permettent d'élaborer le modèle optimal sans avoir à chercher. Cependant, des modèles plus complexes nécessitent l'utilisation de la descente de gradient. La vidéo présente également les limites de classification et de décision, où l'objectif est de séparer les points bleus des points rouges en trouvant une ligne qui le fait de manière optimale. Les limites des modèles linéaires incluent leur incapacité à classer des ensembles de données non linéairement séparables, mais ils sont bon marché en termes de calcul et fonctionnent bien dans des espaces de caractéristiques de grande dimension. L'instructeur prévisualise également les futurs sujets qui seront abordés, tels que la méthodologie d'apprentissage automatique.
3 Méthodologie 1 : Aire sous la courbe, biais et variance, pas de repas gratuit (MLVU2019)
3 Méthodologie 1 : Aire sous la courbe, biais et variance, pas de repas gratuit (MLVU2019)
La vidéo couvre l'utilisation de la métrique de l'aire sous la courbe (AUC) dans l'évaluation des modèles d'apprentissage automatique, ainsi que l'introduction des concepts de biais et de variance, et le théorème "pas de repas gratuit". La métrique AUC mesure les performances du modèle de classification en calculant l'aire sous la courbe ROC. De plus, le biais et la variance sont discutés car ils jouent un rôle crucial dans la façon dont le modèle s'adapte aux données de formation et se généralise aux nouvelles données. De plus, le théorème "pas de repas gratuit" souligne la nécessité de sélectionner l'algorithme approprié pour chaque problème spécifique car il n'existe pas d'algorithme universellement applicable pour tous les problèmes d'apprentissage automatique.
Cette vidéo couvre trois concepts importants d'apprentissage automatique : AUC (aire sous la courbe), biais et variance, et le théorème "pas de repas gratuit". L'ASC est une mesure utilisée pour évaluer les modèles de classification binaire, tandis que le biais et la variance font référence aux différences entre les valeurs prédites d'un modèle et les valeurs réelles dans un ensemble de données. Le théorème "pas de repas gratuit" souligne l'importance de sélectionner l'algorithme approprié pour un problème donné, car il n'existe pas d'algorithme unique qui puisse fonctionner de manière optimale sur tous les problèmes et ensembles de données possibles.
4 Méthodologie 2 : Nettoyage des données, Analyse en composantes principales, Eigenfaces (MLVU2019)
4 Méthodologie 2 : Nettoyage des données, Analyse en composantes principales, Eigenfaces (MLVU2019)
Cette première partie de la vidéo couvre divers aspects importants du prétraitement et du nettoyage des données avant d'appliquer des algorithmes d'apprentissage automatique, en commençant par l'importance cruciale de comprendre les biais et le biais des données. L'orateur discute ensuite des méthodes de traitement des données manquantes, des valeurs aberrantes, du déséquilibre des classes, de la sélection des caractéristiques et de la normalisation. La vidéo aborde ensuite le concept de base et la distribution MVN, expliquant comment utiliser le blanchiment pour transformer les données en une distribution normale pour la normalisation, et se termine par l'utilisation de l'analyse en composantes principales (ACP) pour la réduction de la dimensionnalité. De la manipulation de l'ensemble d'apprentissage à l'utilisation de méthodes d'imputation, l'ACP projette les données dans un espace de dimension inférieure tout en conservant les informations des données d'origine.
Cette deuxième partie de la vidéo traite de l'utilisation de l'analyse en composantes principales (ACP) dans le nettoyage des données et la réduction de la dimensionnalité pour l'apprentissage automatique. La méthode implique le centrage moyen des données, le calcul de la covariance de l'échantillon et sa décomposition à l'aide de la décomposition propre pour obtenir les vecteurs propres alignés sur l'axe qui capture le plus de variance. L'utilisation des K premiers composants principaux fournit une bonne reconstruction des données, permettant de meilleures performances d'apprentissage automatique. Le concept d'Eigenfaces est également introduit et l'ACP s'avère efficace pour compresser les données à 30 dimensions tout en conservant la plupart des informations requises pour l'apprentissage automatique. Diverses applications de l'ACP sont discutées, y compris son utilisation en anthropologie et dans l'étude d'ensembles de données complexes tels que l'ADN et les visages.