Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Cours 15. Apprentissage : quasi-accidents, conditions de félicité
15. Apprentissage : quasi-accidents, conditions de félicité
Dans cette vidéo, le professeur Patrick Winston discute du concept d'apprentissage à partir des quasi-accidents et des conditions de félicité. Il utilise différents exemples, notamment la construction d'une arche et l'identification des contraintes spécifiques nécessaires pour qu'elle soit considérée comme une arche. Il explique également comment un programme informatique pourrait identifier les principales caractéristiques d'un train en utilisant l'apprentissage heuristique. L'orateur insiste sur l'importance de l'auto-explication et de la narration, en particulier sur la façon dont l'intégration des deux dans les présentations peut faire ressortir une idée et la rendre célèbre. En fin de compte, il pense que l'emballage d'idées n'est pas seulement une question d'IA, mais aussi de faire de la bonne science, de se rendre plus intelligent et de devenir plus célèbre.
Cours 16. Apprentissage : machines à vecteurs de support
16. Apprentissage : Soutenir les machines à vecteurs
Dans la vidéo, Patrick Winston explique comment fonctionnent les machines à vecteurs de support (SVM) et comment elles peuvent être utilisées pour optimiser une règle de décision. Il explique que l'algorithme SVM utilise une transformation, Phi, pour déplacer un vecteur d'entrée, x, dans un nouvel espace où il est plus facile de séparer deux vecteurs similaires. La fonction noyau, k, fournit le produit scalaire de x sub i et x sub j. Tout ce qui est nécessaire est la fonction, k, qui est une fonction noyau. Vapnik, un immigrant soviétique qui a travaillé sur SVM au début des années 1990, est crédité d'avoir ravivé l'idée du noyau et d'en avoir fait un élément essentiel de l'approche SVM.
Cours 17. Apprentissage : Booster
17. Apprentissage : dynamiser
La vidéo traite de l'idée de booster, qui consiste à combiner plusieurs classificateurs faibles pour créer un classificateur fort. L'idée est que les classificateurs faibles votent et que le classificateur fort est celui qui a le plus de votes. La vidéo explique comment utiliser un algorithme de boosting pour améliorer les performances des classificateurs individuels.
Cours 17. Apprentissage : Booster
17. Apprentissage : dynamiser
La vidéo traite de l'idée de booster, qui consiste à combiner plusieurs classificateurs faibles pour créer un classificateur fort. L'idée est que les classificateurs faibles votent et que le classificateur fort est celui qui a le plus de votes. La vidéo explique comment utiliser un algorithme de boosting pour améliorer les performances des classificateurs individuels.
Cours 18. Représentations : classes, trajectoires, transitions
18. Représentations : classes, trajectoires, transitions
Dans cette vidéo, le professeur Patrick Winston discute du concept d'intelligence humaine, de la capacité à former des représentations symboliques et de sa relation avec le langage, et de l'utilisation de réseaux sémantiques pour représenter le langage intérieur et les pensées. Winston souligne l'importance de comprendre les modèles fondamentaux et de développer un vocabulaire du changement pour aider à comprendre différents objets et leur comportement. De plus, il discute de l'utilisation de cadres de trajectoire pour décrire des actions impliquant un mouvement d'une source à une destination et de l'importance des représentations multiples pour mieux comprendre une phrase. Enfin, Winston propose des conseils sur la façon d'améliorer la rédaction technique, en particulier pour les anglophones non natifs, en évitant le langage ambigu, les pronoms confus et le changement de mots.
Cours 19. Architectures : GPS, SOAR, Subsumption, Society of Mind
19. Architectures : GPS, SOAR, Subsumption, Society of Mind
Cette vidéo traite de diverses architectures pour créer des systèmes intelligents, y compris le résolveur de problèmes général et l'architecture SOAR, qui intègre fortement des expériences de psychologie cognitive et se concentre sur la résolution de problèmes. L'orateur discute également de "Emotion Machine" de Marvin Minsky, qui considère la réflexion sur de nombreuses couches, y compris les émotions, et l'hypothèse du bon sens qui plaide pour doter les ordinateurs d'un bon sens comme les humains. L'architecture de subsomption, inspirée de la structure du cerveau humain, est également abordée, le Roomba étant un exemple réussi. La capacité d'imaginer et de percevoir les choses est liée à la capacité de décrire les événements et de comprendre la culture, et la langue joue un rôle crucial dans la construction des descriptions et des combinaisons. L'importance de s'engager dans des activités telles que regarder, écouter, dessiner et parler pour exercer les zones de traitement du langage du cerveau est soulignée, et l'orateur met en garde contre les locuteurs rapides qui peuvent bloquer le processeur de langage et conduire à des décisions impulsives.
Cours 21. Inférence probabiliste I
21. Inférence probabiliste I
Dans cette vidéo sur l'inférence probabiliste, le professeur Patrick Winston explique comment la probabilité peut être utilisée en intelligence artificielle pour faire des inférences et calculer des probabilités en fonction de divers scénarios. Il utilise des exemples tels que l'apparition d'une statue, un chien qui aboie après un raton laveur ou un cambrioleur, et la fondation du MIT en 1861 avant JC pour démontrer l'utilisation d'une table de probabilité conjointe, comment calculer les probabilités à l'aide d'axiomes et de la règle de la chaîne, et les concepts d'indépendance et d'indépendance conditionnelle. L'orateur insiste sur la nécessité d'énoncer correctement l'indépendance des variables et propose l'utilisation de réseaux de croyances comme moyen de représenter la causalité entre les variables tout en simplifiant les calculs de probabilité.
Cours 21. Inférence probabiliste I
21. Inférence probabiliste I
Dans cette vidéo sur l'inférence probabiliste, le professeur Patrick Winston explique comment la probabilité peut être utilisée en intelligence artificielle pour faire des inférences et calculer des probabilités en fonction de divers scénarios. Il utilise des exemples tels que l'apparition d'une statue, un chien qui aboie après un raton laveur ou un cambrioleur, et la fondation du MIT en 1861 avant JC pour démontrer l'utilisation d'une table de probabilité conjointe, comment calculer les probabilités à l'aide d'axiomes et de la règle de la chaîne, et les concepts d'indépendance et d'indépendance conditionnelle. L'orateur insiste sur la nécessité d'énoncer correctement l'indépendance des variables et propose l'utilisation de réseaux de croyances comme moyen de représenter la causalité entre les variables tout en simplifiant les calculs de probabilité.
Cours 22. Inférence probabiliste II
22. Inférence probabiliste II
Dans cette vidéo, le professeur Patrick Winston explique comment utiliser les réseaux d'inférence, également appelés "réseaux de Bayes", pour effectuer des inférences probabilistes. Il explique comment ordonner les variables dans un réseau bayésien en utilisant la règle de la chaîne pour calculer la probabilité conjointe de toutes les variables. L'orateur montre comment accumuler des probabilités en exécutant des simulations et comment générer des probabilités à l'aide d'un modèle. Il discute également de la règle de Bayes et de la façon dont elle peut être utilisée pour résoudre des problèmes de classification, sélectionner des modèles et découvrir des structures. La vidéo met l'accent sur l'utilité de l'inférence probabiliste dans divers domaines tels que le diagnostic médical, la détection de mensonges et le dépannage des équipements.
Cours 23. Fusion de modèles, couplage intermodal, résumé du cours
23. Fusion de modèles, couplage intermodal, résumé du cours
Dans cette vidéo, le professeur Patrick Winston parle de fusion de modèles, de couplage intermodal et réfléchit sur le matériel du cours. Il discute de l'importance de découvrir la régularité sans être trop obsédé par la probabilité bayésienne et des avantages potentiels du couplage intermodal pour comprendre le monde qui nous entoure. Il propose également des suggestions pour de futurs cours et souligne l'importance de se concentrer sur la création de nouveaux revenus et de nouvelles capacités avec des personnes et des ordinateurs travaillant ensemble, plutôt que de viser uniquement à remplacer les personnes. En outre, il souligne l'importance d'identifier d'abord le problème et de sélectionner la méthodologie appropriée pour le résoudre. Enfin, le professeur s'interroge sur les limites de la réduction de l'intelligence à un modèle réplicable et artificiel et souligne le travail exceptionnel de son équipe.