Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
AlphaZero à partir de zéro - Tutoriel d'apprentissage automatique
AlphaZero à partir de zéro - Tutoriel d'apprentissage automatique
00:00:00 - 01:00:00 La vidéo "AlphaZero from Scratch - Machine Learning Tutorial" enseigne aux utilisateurs comment construire et former l'algorithme AlphaZero en utilisant Python et PyTorch pour jouer à des jeux de société complexes à des niveaux surhumains, avec des exemples donnés pour Tic -tac-toe et Connect 4. L'un des composants clés de l'algorithme est la recherche arborescente de Monte Carlo, qui consiste à sélectionner l'action la plus prometteuse, à développer l'arbre et à simuler le jeu, avec les résultats rétropropagés pour la formation. Le didacticiel montre l'expansion des nœuds au cours de l'algorithme de recherche de Monte Carlo, le processus d'auto-jeu et comment former le modèle à l'aide de fonctions de perte qui minimisent la différence entre la politique et la distribution MCTS, ainsi que la valeur et la récompense finale. La vidéo se termine par la création d'un jeu Tic-tac-toe et le teste à travers une boucle while.
01:00:00 - 02:00:00 Dans cette section du didacticiel sur la construction d'AlphaZero à partir de zéro, l'instructeur démontre la mise en œuvre de l'algorithme Monte Carlo Tree Search (MCTS) pour le jeu Tic-tac-toe. L'algorithme est implémenté via une nouvelle classe pour MCTS qui comprend une méthode de recherche définissant une boucle d'itérations répétées pour les phases de sélection, d'expansion, de simulation et de rétropropagation. La vidéo couvre également la mise en œuvre de l'architecture du réseau de neurones AlphaZero, qui comprend deux têtes, une pour la politique et une pour la valeur, et utilise un réseau résiduel avec des connexions de saut. L'en-tête de politique utilise une fonction softmax pour indiquer l'action la plus prometteuse, tandis que l'en-tête de valeur donne une estimation de la qualité de l'état actuel. L'orateur discute également de l'implémentation du bloc de démarrage et de la dorsale pour la classe ResNet et explique comment utiliser le modèle AlphaZero pour obtenir une politique et une valeur pour un état donné dans Tic-Tac-Toe.
02:00:00 - 03:00:00 Le didacticiel "AlphaZero from Scratch" montre comment créer l'algorithme AlphaZero grâce à l'apprentissage automatique. Le présentateur couvre un large éventail de sujets allant de la mise à jour de l'algorithme MCTS, des méthodes d'auto-jeu et de formation, à des améliorations telles que l'ajout de température à la distribution de probabilité, la décroissance du poids et la prise en charge du GPU dans le modèle, et l'ajout de bruit au nœud racine. Le didacticiel guide le spectateur étape par étape dans la mise en œuvre de ces fonctionnalités en montrant comment coder l'état du nœud, obtenir des sorties de politique et de valeur, et ajuster la politique à l'aide de softmax, de mouvements valides et du bruit aléatoire Dirichlet pour ajouter de l'exploration tout en garantissant les actions prometteuses ne manquent pas.
03:00:00 - 04:05:00 Dans ce didacticiel YouTube sur la création d'AlphaZero à partir de zéro à l'aide de l'apprentissage automatique, l'instructeur couvre divers sujets tels que l'ajout d'exploration à la stratégie avec un facteur de bruit, l'intégration de la prise en charge du CPU et du GPU pour les modèles de formation sur jeux plus complexes, mise à jour du code source pour créer un jeu Connect Four, augmentation de l'efficacité de l'implémentation d'AlphaZero grâce à la parallélisation, création de deux nouvelles classes en Python pour les jeux autonomes, codage des états pour augmenter l'efficacité, implémentation de l'algorithme Monte Carlo Tree Search pour AlphaZero et la formation d'un modèle pour Connect Four à l'aide de fs0 parallélisé. Le didacticiel fournit des conseils étape par étape sur chaque sujet en mettant l'accent sur la création d'une implémentation AlphaZero efficace et efficiente. Le présentateur montre comment créer un environnement Connect Four à l'aide du package d'environnements Kegel, puis exécute et visualise le jeu avec deux agents qui utilisent l'algorithme de recherche MCTS basé sur un modèle AlphaZero formé. Le présentateur apporte également des corrections mineures au code et définit le joueur un comme l'agent utilisant l'algorithme MCTS pour les prédictions basées sur le modèle entraîné. Le didacticiel se termine avec le présentateur fournissant un référentiel GitHub avec des cahiers jupyter pour chaque point de contrôle et un dossier de poids avec le dernier modèle pour Tic-tac-toe et Connect Four, exprimant son intérêt à faire une vidéo de suivi sur Mu Zero s'il y en a s'y intéresser.
Partie 1
Partie 2
Partie 3
Partie 4
Google Panics Over ChatGPT [Les guerres de l'IA ont commencé]
Google Panics Over ChatGPT [Les guerres de l'IA ont commencé]
La vidéo explique comment Google se prépare à ce que les chatbots deviennent plus puissants et comment cela pourrait avoir un impact sur leur modèle commercial. Microsoft travaillerait sur un chatbot qui permettrait aux utilisateurs de communiquer avec Bing d'une manière plus humaine, et cette fonctionnalité sera bénéfique pour les recherches où les images n'existent pas actuellement. Microsoft a déclaré qu'il travaillait en étroite collaboration avec l'IA ouverte afin que cette fonctionnalité ne génère pas de visuels explicites ou inappropriés. Il semble donc que Bing fasse l'objet d'une refonte majeure avec les fonctionnalités de chat GPT et Dali 2 intégrées.
CONFÉRENCE JENSEN HUANG (NVIDIA) et ILYA SUTSKEVER (OPEN AI).AI AUJOURD'HUI ET VISION DU FUTUR
CONFÉRENCE JENSEN HUANG (NVIDIA) et ILYA SUTSKEVER (OPEN AI).AI AUJOURD'HUI ET VISION DU FUTUR
Le PDG de NVIDIA, Jensen Huang, et le co-fondateur d'OpenAI, Ilya Sutskever, discutent des origines et des avancées de l'intelligence artificielle (IA) lors d'une conférence. Sutskever explique comment l'apprentissage en profondeur est devenu clair pour lui, comment l'apprentissage non supervisé par compression a conduit à la découverte d'un neurone correspondant au sentiment, et comment la pré-formation d'un réseau neuronal a conduit à instruire et à affiner avec la collaboration humaine et IA. Ils discutent également des avancées et des limites du GPT-4 et de l'apprentissage multimodal, ainsi que du rôle de la génération de données synthétiques et de l'amélioration de la fiabilité des systèmes d'IA. Bien qu'il s'agisse du même concept d'il y a 20 ans, ils s'émerveillent tous les deux des progrès réalisés dans la recherche sur l'IA.
Il est temps de prêter attention à l'IA (ChatGPT et au-delà)
Il est temps de prêter attention à l'IA (ChatGPT et au-delà)
La vidéo traite du développement de l'intelligence artificielle (IA) et de la façon dont elle change notre façon de travailler et de vivre. Certaines personnes sont enthousiasmées par le potentiel de l'IA, tandis que d'autres s'inquiètent de ses implications potentielles. Le conférencier fournit également un bref résumé d'un récent épisode de podcast.
L'histoire intérieure du potentiel étonnant de ChatGPT | Greg Brockman | TED
L'histoire intérieure du potentiel étonnant de ChatGPT | Greg Brockman | TED
Dans cette section de la vidéo, Greg Brockman discute du rôle de l'IA dans l'amélioration de l'éducation. Il soutient que les méthodes d'enseignement traditionnelles sont souvent inefficaces et inefficaces, les élèves ayant du mal à conserver leurs connaissances et les enseignants ayant du mal à enseigner d'une manière qui engage chaque élève. Brockman suggère que l'IA pourrait aider à résoudre ces problèmes en offrant des expériences d'apprentissage personnalisées à chaque élève. Grâce aux outils d'IA, il est possible de suivre les progrès des élèves en temps réel, en ajustant le programme à leurs besoins et préférences. Cela pourrait conduire à des expériences d'apprentissage plus engageantes et efficaces, permettant aux étudiants de conserver plus de connaissances et aux enseignants de se concentrer sur des tâches plus importantes. Brockman souligne également l'importance de concevoir des outils d'IA en gardant à l'esprit la confidentialité, en veillant à ce que les données des élèves soient protégées et utilisées uniquement à des fins éducatives.
MIT Deep Learning en sciences de la vie - Printemps 2021
MIT Deep Learning en sciences de la vie - Printemps 2021
Le cours "Deep Learning in Life Sciences" applique l'apprentissage automatique à diverses tâches des sciences de la vie et est enseigné par un chercheur en apprentissage automatique et en génomique avec une équipe pédagogique de doctorants et d'étudiants de premier cycle du MIT. Le cours couvre les fondements de l'apprentissage automatique, les circuits de régulation des gènes, la variation de la maladie, les interactions et le repliement des protéines, et l'imagerie à l'aide de TensorFlow via Python dans une plate-forme Google Cloud. Le cours consistera en quatre ensembles de problèmes, un quiz et un projet d'équipe, avec des séances de mentorat entrecoupées pour aider les étudiants à concevoir leurs propres projets. L'instructeur insiste sur l'importance de constituer une équipe avec des compétences et des intérêts complémentaires et fournit divers jalons et livrables tout au long du trimestre. Le cours vise à fournir une expérience du monde réel, y compris la rédaction de propositions de subventions et de bourses, l'examen par les pairs, les rapports annuels et le développement des compétences de communication et de collaboration. Le conférencier discute des différences entre l'IA traditionnelle et l'apprentissage en profondeur, qui construit une représentation interne d'une scène basée sur des stimuli observables, et souligne l'importance de l'apprentissage en profondeur dans les sciences de la vie en raison de la convergence des données d'apprentissage, de la puissance de calcul et des nouveaux algorithmes. .
La vidéo est une conférence d'introduction sur l'apprentissage en profondeur dans les sciences de la vie, expliquant l'importance de l'apprentissage automatique et de l'apprentissage en profondeur dans l'exploration de la complexité du monde. L'exposé se concentre sur le concept d'inférence bayésienne et sur la façon dont il joue un rôle crucial dans l'apprentissage automatique classique et profond, ainsi que sur les différences entre les approches génératives et discriminatives de l'apprentissage. La conférence met également en évidence la puissance des machines à vecteurs de support, les performances de classification et l'algèbre linéaire pour comprendre les réseaux à travers les systèmes biologiques. L'orateur note que le cours couvrira divers sujets d'apprentissage en profondeur, notamment la régularisation, la prévention du surapprentissage et les ensembles d'entraînement. La conférence se termine en abordant des questions liées à l'interprétabilité des neurones artificiels et des réseaux profonds pour les futures conférences.
CNNs Convolutional Neural Networks - Conférence 03 (printemps 2021)
CNNs Convolutional Neural Networks - Deep Learning in Life Sciences - Conférence 03 (printemps 2021)
Cette conférence vidéo couvre le sujet des réseaux de neurones convolutifs (CNN) dans l'apprentissage en profondeur pour les sciences de la vie. L'orateur discute des principes du cortex visuel et de leur relation avec les CNN, y compris les éléments constitutifs des systèmes visuels humains et animaux, tels que les éléments constitutifs de base de la sommation et de la pesée et le seuil d'activation du biais d'un neurone. Ils expliquent que les CNN utilisent des neurones spécialisés pour les opérations de détection de bas niveau et des couches d'unités cachées pour l'apprentissage de concepts abstraits. Le cours couvre également le rôle des couches de convolution et de regroupement, l'utilisation de plusieurs filtres pour extraire plusieurs caractéristiques et le concept d'apprentissage par transfert. Enfin, les non-linéarités et l'utilisation du rembourrage pour traiter les cas de bord en convolution sont également discutés. Dans l'ensemble, la conférence met en évidence la puissance et le potentiel des CNN dans une variété d'applications des sciences de la vie.
La deuxième partie du cours couvre divers concepts liés aux réseaux de neurones convolutifs (CNN). Dans la conférence, l'orateur parle de l'importance de maintenir la taille d'entrée dans les CNN, de l'augmentation des données comme moyen d'obtenir l'invariance aux transformations, et des différentes architectures CNN et de leurs applications. La conférence couvre également les défis associés à l'apprentissage dans les CNN profonds, les hyperparamètres et leur impact sur les performances globales, et les approches de réglage des hyperparamètres. Le conférencier souligne l'importance de comprendre les principes fondamentaux des CNN et souligne leur polyvalence en tant que technique applicable dans de multiples contextes.
Fondements de l'apprentissage automatique - Conférence 02 (printemps 2021)
Machine Learning Foundations - Deep Learning in Life Sciences Conférence 02 (printemps 2021)
Cette conférence couvre les fondements de l'apprentissage automatique, introduisant des concepts tels que les ensembles d'entraînement et de test, les types de modèles tels que discriminatifs et génératifs, l'évaluation des fonctions de perte, la régularisation et le surajustement, et les réseaux de neurones. Le conférencier poursuit en expliquant l'importance des hyperparamètres, l'évaluation de la précision dans les sciences de la vie, les tests de corrélation et les calculs de probabilité pour les tests de modèles. Enfin, les bases des réseaux de neurones profonds et la structure d'un neurone sont abordées, mettant en évidence le rôle de la non-linéarité dans l'apprentissage de fonctions complexes.
Dans la deuxième section de la conférence, le concept des fonctions d'activation dans l'apprentissage en profondeur est expliqué, ainsi que le processus d'apprentissage consistant à ajuster les poids pour correspondre à la fonction de sortie en utilisant des dérivées partielles dans le réglage des mises à jour des poids pour minimiser les erreurs, qui est le fondement du gradient. -apprentissage basé sur. Le concept de rétropropagation est introduit en tant que méthode de propagation des dérivés à travers un réseau de neurones afin d'ajuster les poids. Les différentes méthodes d'optimisation des poids dans plusieurs couches de modèles d'apprentissage en profondeur sont discutées, y compris la descente de gradient stochastique et le concept de capacité du modèle et la dimension VC. L'efficacité de la capacité d'un modèle sur un graphique et le biais et la variance sont également discutés, ainsi que diverses techniques de régularisation telles que l'arrêt précoce et la décroissance du poids. L'importance de trouver le bon équilibre de complexité est soulignée et les étudiants sont encouragés à se présenter positivement à leurs camarades de classe.
CNNs Convolutional Neural Networks - Conférence 03 (printemps 2021)
CNNs Convolutional Neural Networks - Deep Learning in Life Sciences - Conférence 03 (printemps 2021)
Cette conférence vidéo couvre le sujet des réseaux de neurones convolutifs (CNN) dans l'apprentissage en profondeur pour les sciences de la vie. L'orateur discute des principes du cortex visuel et de leur relation avec les CNN, y compris les éléments constitutifs des systèmes visuels humains et animaux, tels que les éléments constitutifs de base de la sommation et de la pesée et le seuil d'activation du biais d'un neurone. Ils expliquent que les CNN utilisent des neurones spécialisés pour les opérations de détection de bas niveau et des couches d'unités cachées pour l'apprentissage de concepts abstraits. Le cours couvre également le rôle des couches de convolution et de regroupement, l'utilisation de plusieurs filtres pour extraire plusieurs caractéristiques et le concept d'apprentissage par transfert. Enfin, les non-linéarités et l'utilisation du rembourrage pour traiter les cas de bord en convolution sont également discutés. Dans l'ensemble, la conférence met en évidence la puissance et le potentiel des CNN dans une variété d'applications des sciences de la vie.
La deuxième partie du cours couvre divers concepts liés aux réseaux de neurones convolutifs (CNN). Dans la conférence, l'orateur parle de l'importance de maintenir la taille d'entrée dans les CNN, de l'augmentation des données comme moyen d'obtenir l'invariance aux transformations, et des différentes architectures CNN et de leurs applications. La conférence couvre également les défis associés à l'apprentissage dans les CNN profonds, les hyperparamètres et leur impact sur les performances globales, et les approches de réglage des hyperparamètres. Le conférencier souligne l'importance de comprendre les principes fondamentaux des CNN et souligne leur polyvalence en tant que technique applicable dans de multiples contextes.
Recurrent Neural Networks RNNs, Graph Neural Networks GNNs, Long Short Term Memory LSTMs - Conférence 04 (printemps 2021)
RNN de réseaux de neurones récurrents, GNN de réseaux de neurones graphiques, LSTM de mémoire à long et à court terme
Cette vidéo couvre une gamme de sujets commençant par les réseaux de neurones récurrents (RNN) et leur capacité à coder le contexte temporel, ce qui est essentiel pour l'apprentissage des séquences. L'orateur introduit le concept de modèles de Markov cachés et leurs limites, ce qui conduit à la discussion des modules de mémoire longue à court terme (LSTM) comme une approche puissante pour traiter les longues séquences. La vidéo traite également du module de transformateur, qui apprend les relations temporelles sans dérouler ni utiliser de RNN. Les réseaux de neurones de graphes sont introduits et leurs applications potentielles dans la résolution de problèmes de réseau classiques et en biologie computationnelle. L'exposé se termine par une discussion sur les frontières de la recherche dans les réseaux de neurones de graphes, telles que leur application dans les modèles de graphes dégénératifs et l'inférence de graphes latents.
Cette deuxième partie de la vidéo traite des modules Recurrent Neural Networks (RNN), Graph Neural Networks (GNN) et Long Short Term Memory (LSTM). Il explique comment les réseaux de neurones feedforward traditionnels ont des limites lorsqu'ils traitent des données basées sur des graphes, mais les GNN peuvent gérer un large éventail d'invariances et propager des informations sur le graphe. Les conférenciers discutent également des réseaux convolutifs de graphes (GCN) et de leurs avantages et défis. De plus, la vidéo décrit l'importance des fonctions d'attention pour rendre les GNN plus puissants et flexibles.