Apprentissage Automatique et Réseaux Neuronaux - page 14

 

Cours 22 : Orientation extérieure, récupération de la position et de l'orientation, ajustement du faisceau, forme de l'objet



Cours 22 : Orientation extérieure, récupération de la position et de l'orientation, ajustement du faisceau, forme de l'objet

La conférence explore le concept d'orientation extérieure en photogrammétrie, où la position et l'orientation des caméras sont déterminées dans un environnement 3D. L'enseignant discute de diverses méthodes pour résoudre des problèmes liés à l'orientation extérieure, telles que la récupération de la position et de l'orientation d'un objet à l'aide de la règle du triangle des signes et de la règle du cosinus. La vidéo explore également l'utilisation de cylindres et de maillages généralisés pour représenter des objets 3D et les aligner en vision par ordinateur. Le conférencier présente également l'image gaussienne étendue, une méthode de mappage d'objets convexes de forme arbitraire sur une sphère unitaire, et explique ses limites dans la manipulation d'objets non convexes. De plus, la vidéo aborde l'optimisation non linéaire et son application dans la création de modèles 3D précis pour la photogrammétrie.

La conférence traite de la paramétrisation des courbes et du calcul de la courbure dans les scénarios 2D et 3D. En 2D, une courbe convexe fermée peut être représentée sur un cercle unité par l'angle eta et une densité proportionnelle à la courbure, qui est l'inverse du rayon de la courbe. La conférence montre comment intégrer eta et utiliser les équations xy pour obtenir l'objet convexe pour l'image circulaire, et étend la représentation à d'autres formes telles que les ellipses. En 3D, le concept de cartographie de Gauss est introduit pour connecter des points sur une surface à des points sur une sphère unitaire, et la courbure des surfaces est discutée, la courbure gaussienne étant une quantité scalaire unique pratique qui mesure la courbure. La conférence se termine par une discussion sur le rapport de deux aires, k et g, et comment il se rapporte à la courbure d'une sphère.

  • 00:00:00 Dans cette section, le concept d'orientation extérieure est abordé en photogrammétrie. Il est démontré à travers un drone équipé d'une caméra survolant un terrain avec un modèle détaillé. L'orientation extérieure consiste à déterminer où se trouve la caméra du drone et sous quel angle il voit les objets dans l'environnement 3D. Cela nécessite six degrés de liberté, dont trois pour le mouvement de rotation et trois pour la translation. Le modèle nécessite trois points ou plus dans les données d'image pour fournir suffisamment de contraintes pour résoudre le problème.

  • 00:05:00 Dans cette section, le conférencier explique comment trouver la longueur des jambes du trépied pour déterminer R1, R2 et R3. En construisant des rayons et en calculant des angles, les seules inconnues sont les longueurs des trois bâtons. Une fois ces longueurs trouvées, P0 peut être découvert en coupant les trois sphères. Il existe un potentiel d'ambiguïté dans la solution, mais cela peut être résolu en utilisant une image miroir ou l'ordre cyclique des images. Le conférencier explique que les livres étaient pleins de formules pour résoudre ce problème, mais maintenant ce processus peut être accompli grâce à l'ajustement des faisceaux.

  • 00:10:00 Dans cette section, le conférencier discute de l'utilisation de différentes règles et équations pour résoudre des problèmes liés à l'orientation extérieure, à savoir la récupération de la position et de l'orientation d'un objet. L'utilisation de ces règles était importante dans la navigation et l'arpentage, mais n'est plus autant utilisée de nos jours. La règle du triangle des signes et la règle du cosinus sont les deux seules règles nécessaires, mais d'autres règles peuvent être utiles pour plus de commodité. Le problème discuté implique d'avoir un angle et une distance dans un triangle et de résoudre pour r1 et r2 en utilisant trois équations non linéaires. Une fois la position de l'avion trouvée, des vecteurs peuvent être construits pour déterminer l'orientation de l'objet par rapport au système de coordonnées au sol. Les méthodes des moindres carrés et RANSAC peuvent également être utilisées pour trouver des solutions et traiter les valeurs aberrantes.

  • 00:15:00 Dans cette section, le conférencier discute de l'orientation extérieure des caméras et de la manière de relier les trois vecteurs du système de coordonnées de la caméra à ceux du système de coordonnées mondial via une matrice de rotation. Le conférencier explique que nous pouvons représenter ce système d'équations comme une équation matricielle 3x3 à résoudre pour la matrice de rotation, que nous pouvons représenter comme une matrice orthonormée. Si nous avons plus de correspondances, nous pouvons utiliser les moindres carrés pour minimiser l'erreur dans le plan de l'image afin d'obtenir une solution plus précise. Le conférencier mentionne également comment cette méthode peut être utilisée pour le réglage du faisceau, qui implique plusieurs caméras capturant le même objet ou la même scène à partir de différentes positions, et comment elle fournit une solution au problème connexe qui implique des centaines de caméras.

  • 00:20:00 Dans cette section, l'orateur aborde le problème de l'optimisation non linéaire en photogrammétrie et ses solutions par des méthodes comme Levenberg Markart. Dans cette optimisation, il existe des paramètres inconnus de l'environnement tels que les points de l'environnement, l'emplacement des caméras, les propriétés de la caméra et la distorsion radiale. En utilisant de nombreuses contraintes et images, les chercheurs ont pu créer des modèles 3D précis de divers objets, parfois même en utilisant une seule caméra de drone survolant un volcan. L'orateur mentionne également des points intéressants dans les images, décrit une ressource en ligne de Lowe pour les identifier et aborde brièvement l'ajustement des faisceaux, qui est toute une industrie au sein de la photogrammétrie.

  • 00:25:00 Dans cette section, l'orateur aborde diverses représentations d'objets 3D, notamment les polyèdres et les maillages. Les polyèdres sont relativement faciles à décrire, mais pour les surfaces courbes, les maillages sont une meilleure option. Cependant, l'alignement des maillages n'a pas beaucoup de sens car les sommets n'ont pas d'étiquette ou de signification particulière. Le conférencier suggère d'utiliser des images gaussiennes étendues, une ressource en ligne qui peut aider à récupérer la position et l'orientation d'objets 3D.

  • 00:30:00 Dans cette section de la conférence vidéo, l'orateur explore le concept de trouver une bonne représentation des objets en vision par ordinateur qui satisfait certaines conditions d'invariance, telles que la translation et la rotation. L'orateur discute des limites de certaines tentatives pour trouver une telle représentation et passe à l'examen d'une représentation en particulier, le cylindre généralisé. Cette représentation implique de prendre une forme de générateur et de la déplacer le long d'une ligne pour générer des formes plus compliquées avec la propriété que la section transversale est la même partout sur la longueur. L'orateur explique comment cette représentation satisfait certaines conditions d'invariance et peut aider à la reconnaissance et à l'alignement d'objets.

  • 00:35:00 Dans cette section, le conférencier discute de l'utilisation de cylindres généralisés pour représenter des objets et comment ils peuvent être combinés pour créer un modèle 3D. Cependant, cette méthode a ses limites, car une représentation unique est difficile à obtenir lorsqu'il existe une infinité de façons de décrire le même objet. Par conséquent, le cours revient aux polyèdres comme point de départ pour la représentation 3D, en utilisant une liste de sommets avec des coordonnées 3D et une structure de graphe pour décrire les connexions entre les sommets et les faces.

  • 00:40:00 Dans cette section, l'orateur explique comment représenter un objet en dessinant des vecteurs unitaires perpendiculaires aux faces de l'objet, puis en les multipliant par les aires. Cette représentation peut être unique pour des objets convexes ou des polyèdres complexes, tant que la somme de ces vecteurs est nulle. L'orateur note que cette représentation est utile pour la reconnaissance et l'alignement des objets, plutôt que pour la reconstruction. Bien qu'elle soit une preuve non constructive, la représentation n'est pas dissuasive, comme l'explique l'orateur.

  • 00:45:00 Dans cette section de la conférence, l'orateur explique comment approximer un objet non polyédrique, tel qu'une forme cylindrique et conique avec une partie plate, en le découpant en tranches et en construisant un vecteur unitaire en tenant compte de zone. Le locuteur construit ensuite une sphère unitaire et dépose des masses aux points correspondants de la sphère, qui représentent la surface de l'objet. La surface cylindrique correspond à un grand cercle sur la sphère, et la surface conique correspond à un petit cercle sur la sphère, et la plaque à l'extrémité correspond à une grande masse en un seul point. L'orateur explique que cette représentation peut être utilisée de diverses manières pour la tâche à accomplir.

  • 00:50:00 Dans cette section, le conférencier discute de l'utilisation de la représentation pour aligner et reconnaître des objets. La représentation implique le calcul d'une densité d'orientation pour chaque objet, où chaque point sur l'objet a un point correspondant sur une sphère unitaire. L'enseignant explique que la représentation est invariante à la translation et à la rotation, ce qui la rend facile à mettre en œuvre. La densité peut être utilisée pour déterminer la courbure, où une densité élevée correspond à une faible courbure et une faible densité correspond à une courbure élevée. Le conférencier introduit ensuite l'image gaussienne étendue, qui utilise les normales de surface pour déterminer le point correspondant sur la sphère pour un point donné sur l'objet. L'enseignant propose de commencer par une version 2D pour comprendre le concept avant de passer à la 3D.

  • 00:55:00 Dans cette section, une méthode de mappage d'objets convexes de forme arbitraire sur une sphère unitaire est expliquée. Gauss a proposé cette méthode, qui mappe un point de l'objet au point sur la sphère avec la même direction de la normale. Cette méthode est utilisée car il est facile de déterminer le pôle nord céleste ou de regarder où se trouve le soleil et à quelle période de l'année il est pour mesurer l'angle. Cette cartographie est inversible, de sorte que la correspondance entre le point avec la même orientation d'une sphère à un objet est possible. Cependant, la limitation de cette méthode est qu'elle a quelques problèmes avec les objets non convexes.

  • 01:00:00 Dans cette section, l'intervenant discute du paramétrage d'un cercle unité dans le plan par l'angle eta et la densité d'une masse proportionnelle à la courbure. La courbure est le taux de rotation d'une courbe fermée convexe, qui est le taux de changement de direction ou l'inverse du rayon de la courbe. La densité est l'inverse de la courbure, et cette représentation sur un cercle unité est unique à une courbe convexe fermée en 2D. L'orateur explique comment diviser une courbe en petites facettes qui contribuent à la densité de la courbe, conduisant au cas continu de la représentation de la courbe sur un cercle unité. Bien qu'il n'y ait pas d'inversion en 3D, l'orateur illustre l'inversion et l'intégration pour expliquer davantage les idées.

  • 01:05:00 Dans cette section, le conférencier discute de l'intégration de eta et de l'utilisation des équations x et y pour obtenir l'objet convexe pour l'image circulaire dans les cas 2D. Cependant, le même processus ne peut pas être utilisé dans les scénarios 3D. L'enseignant introduit ensuite la notion de barycentre de la distribution de masse et note qu'il doit être à l'origine pour une courbe fermée et convexe. Il explique également la limitation selon laquelle seuls certains types de distributions de masse sont légitimes. Pour illustrer la théorie, l'enseignant utilise un exemple de cercle de rayon r pour déterminer la courbure.

  • 01:10:00 Dans cette section du cours, le professeur explique comment calculer le rayon de courbure d'un cercle et de toute autre forme courbe, même si elle n'est pas circulaire. La courbure est simplement l'inverse du rayon de courbure, le rayon étant le rayon du cercle le mieux ajusté à une position spécifique. Le professeur montre comment utiliser les mathématiques pour représenter une ellipse comme un cercle écrasé pour plus de simplicité et explique qu'il existe de nombreuses façons différentes de représenter mathématiquement les courbes. Cependant, le professeur note que cette méthode ne fonctionnera pas pour déterminer l'orientation car la symétrie est trop ambiguë.

  • 01:15:00 Dans cette section du cours, l'orateur explique comment représenter des cercles de manière paramétrique à l'aide de l'équation (x/a)^2 + (y/b)^2 = 1. Il montre comment générer un cercle à l'aide de cette équation, ce qui est plus pratique que d'essayer toutes les valeurs x et y possibles. L'orateur explique ensuite comment cette représentation paramétrique se rapporte à la Terre, qui peut être vue comme une sphère écrasée dans le sens vertical. Ils expliquent également comment mapper le cercle à la surface de la sphère en calculant la normale à la courbe à l'aide de la différenciation, en inversant x et y et en modifiant le signe. La dernière étape consiste à faire correspondre la direction normale à la direction tangente.

  • 01:20:00 Dans cette section, la courbure, ou une sur k, d'une ellipse est analysée par rapport à êta, l'angle sur le cercle unité. Les extrema, ou valeurs maximales et minimales, se produisent à eta égal à zéro et pi sur deux, qui correspondent aux extrémités des demi-axes. La courbure varie continûment et dépend des demi-axes a et b. Une fois que la distribution continue des extrema est calculée pour une ellipse qui n'est pas alignée avec un système de coordonnées, elle peut être tournée pour correspondre à une autre ellipse pour la reconnaissance d'objet. S'il y a une bonne correspondance, l'objet est une ellipse ; sinon, ce n'est pas le cas.

  • 01:25:00 Dans cette section, le conférencier discute de l'application de l'orientation extérieure 2D et des opérations de filtrage intéressantes qui peuvent être effectuées en utilisant la convolution sur les cercles. Cependant, l'accent est mis sur l'orientation extérieure 3D et le concept de mappage de Gauss est introduit pour connecter des points sur la surface à des points sur la sphère unitaire en fonction de l'orientation normale de la surface. Ce concept est étendu aux formes et la courbure des surfaces est discutée, la courbure gaussienne étant une quantité scalaire unique pratique qui mesure la courbure. Pour les surfaces convexes, une courbure positive est considérée, tandis que pour les surfaces non convexes, la courbure est négative.

  • 01:30:00 Dans cette section, l'orateur discute du rapport de deux aires, k et g, qui sont 1 sur r au carré et r au carré, respectivement. Le rapport est cohérent avec la courbure d'une sphère, où une petite sphère a une courbure élevée, et vice versa pour une grande sphère. La discussion aborde ensuite la courbure gaussienne et comment elle est intimement liée aux calculs en cours. La courbure intégrale est également mentionnée, qui s'applique aux surfaces qui ne sont pas lisses et sera discutée plus en détail dans la conférence suivante sur la façon dont elle est utilisée dans la reconnaissance et l'alignement.
 

MIT 6.801 Machine Vision, automne 2020. Cours 23 : Image gaussienne, solides de révolution, histogrammes de direction, polyèdres réguliers



Cours 23 : Image gaussienne, solides de révolution, histogrammes de direction, polyèdres réguliers

Le conférencier dans cette vidéo discute de l'image gaussienne étendue (EGI) en tant que représentation d'objets 3D qui ne peuvent pas être présentés comme des polyèdres. L'orateur explique comment la courbure intégrale est liée à un patch sur la surface d'une forme, discute du concept d'EGI dans des implémentations abstraites et discrètes, et explore l'image gaussienne de diverses formes, y compris les ellipsoïdes, les solides de révolution tels que les cylindres et les cônes, et non convexe des objets tels que des tores. L'EGI peut aider à déterminer l'attitude d'un objet dans l'espace et peut être utilisé pour l'alignement avec les données de vision artificielle. Les méthodes pour trouver la courbure et la courbure gaussienne des solides de révolution sont également discutées, ainsi que les défis du calcul de l'EGI des objets non convexes.

Dans la conférence 23 d'un cours d'informatique, le conférencier explique comment utiliser l'image gaussienne pour la reconnaissance et l'alignement d'objets, ainsi que comment créer un histogramme de direction pour représenter la forme réelle d'un objet dans une bibliothèque. Ils discutent également des défis liés au regroupement d'histogrammes, à la division d'une sphère et à l'alignement d'un solide de révolution, ainsi que des motifs et des solides réguliers. La conférence fournit des informations sur la représentation d'objets à l'aide de la distribution de masse sur une sphère, en évitant les éléments de surface cachés et sur la compréhension de l'effet de la courbure sur la distribution de masse. Il aborde également les avantages et les inconvénients de l'utilisation de différentes formes pour les histogrammes de regroupement, ainsi que l'importance de modèles et de formes réguliers pour une bonne qualité.

  • 00:00:00 Dans cette section, l'image gaussienne étendue est discutée en tant que représentation d'objets 3D qui ne peuvent pas être présentés sous forme de polyèdres. L'image gaussienne est une correspondance entre la surface de l'objet et des points sur la sphère unitaire basée sur l'égalité des normales de surface. En traçant l'inverse de la courbure gaussienne en fonction de la position sur la sphère, il peut être utilisé pour définir quelle partie de la surface a une normale qui pointe dans cette direction. L'intégration de la courbure gaussienne sur un patch sur l'objet donne la zone du patch correspondant sur la sphère, appelée courbure intégrale. En revanche, l'intégration de la courbure gaussienne sur k sur la sphère donne la zone sur l'objet qui correspond à celle-ci, qui est une quantité plus importante.

  • 00:05:00 Dans cette section, l'orateur discute du concept de courbure intégrale et de son lien avec un patch sur la surface d'une forme. Ils expliquent qu'en prenant l'intégrale de la courbure sur une certaine zone, le changement total d'orientation dans ce patch peut être capturé, et c'est ce que l'intégrale calcule. L'orateur applique ensuite ce concept à un cube et explique que la courbure intégrale du coin d'un cube est pi sur deux. Ils discutent également de la distribution sur la sphère (appelée "g") qui dépend de l'orientation et comment elle peut avoir certaines contraintes, similaires à celles observées dans les polyèdres.

  • 00:10:00 Dans cette section de la conférence, l'orateur discute de la surface apparente d'un objet convexe vu d'une direction spécifique, basée sur le cosinus de l'angle. L'orateur explique que seules les facettes avec un produit scalaire positif sont visibles sous cet angle et note que la somme de toutes les facettes est nulle. Ceci conduit à la conclusion que le barycentre est à l'origine et que les égides sont des distributions sur la sphère unité avec centre de masse au centre.

  • 00:15:00 Dans cette section, le concept d'EGI (Extended Gaussian Image) est discuté plus en détail dans des implémentations abstraites et discrètes. Le centroïde d'EGI correspond à la surface de l'objet fermée et à l'origine de la sphère. L'EGI peut également être calculé exactement pour des objets géométriquement définis tels que l'exemple d'une sphère où l'EGI est simplement R au carré en raison de la nature symétrique. Des objets plus complexes tels qu'un ellipsoïde peuvent être représentés par l'équation implicite de la surface, ce qui n'est pas pratique pour générer des visualisations ou intégrer sur la surface, mais d'autres façons de décrire la même surface peuvent être utilisées.

  • 00:20:00 Dans cette section, le conférencier discute d'une méthode pour obtenir une description paramétrique d'une surface en utilisant thêta et phi comme paramètres. En différenciant l'équation par rapport à ces paramètres, il obtient des tangentes, qu'il peut ensuite utiliser pour calculer la normale à la surface. Il montre également comment définir la courbure. L'enseignant poursuit ensuite en expliquant une manière de paramétrer la sphère unitaire à l'aide des coordonnées de latitude et de longitude. Cela implique de trouver la grandeur du vecteur qui est normal à la sphère unitaire, ainsi que de définir un autre vecteur. Le cours donne une explication détaillée du processus de dérivation.

  • 00:25:00 Dans cette section, le concept de l'image gaussienne étendue d'un ellipsoïde est exploré. La courbure par rapport à la normale consiste à trouver les points d'intersection des demi-axes sur la surface de l'objet. Bien que la réponse ne soit pas ce à quoi les coordonnées thêta-phi se réfèrent, elles sont utilisées pour la reconnaissance et l'orientation. Il y a des maxima et des minima dans le modèle, et ils sont répartis sur la sphère. Il y a trois directions orthogonales qui sont symétriques de l'autre côté. Avec des données expérimentales, l'image gaussienne peut aider à déterminer l'attitude d'un objet dans l'espace.

  • 00:30:00 Dans cette section du cours, l'accent est mis sur les solides de révolution, qui sont des objets plus faciles à calculer que des formes plus compliquées comme les ellipsoïdes. Les solides de révolution, tels que les cylindres, les cônes, les sphères, les hyperboloïdes d'une ou deux feuilles, ont un générateur qui tourne autour d'un axe pour produire l'objet, qui peut ensuite être mappé sur une sphère pour calculer l'egi. La normale à la surface de l'objet et l'angle avec l'équateur sont pris en compte, et la bande de l'objet est utilisée pour obtenir la bande correspondante sur la sphère, ce qui réduit la forme 3D de l'objet en 2D. La surface de la bande objet est de 2 pi multiplié par le rayon de l'objet multiplié par la largeur de la bande, tandis que le rayon de la sphère dépend de la latitude où plus la latitude est élevée, plus le rayon est petit.

  • 00:35:00 Dans cette section, le conférencier discute de la recherche de la courbure d'un solide de révolution en utilisant la formule k=cos(eta)/r*kg, où kg est la courbure du générateur. Le conférencier explique que la courbure est le taux de changement de la direction de la normale à la surface lorsqu'elle se déplace le long de l'arc, qui est la courbure 2D du générateur. L'enseignant montre également que la formule a des versions différentes selon que la courbe est donnée sous une forme implicite ou en fonction de s ou de la hauteur z. Enfin, le cours fournit une formule pratique pour trouver la courbure d'un solide de révolution lorsqu'on donne r en fonction de s.

  • 00:40:00 Dans cette section, l'orateur décrit deux manières d'obtenir la courbure gaussienne d'un solide de révolution. La première méthode consiste à définir le générateur de courbe comme r en fonction de la longueur de l'arc, avec l'une des 12 manières les plus courantes de spécifier une courbe. La deuxième méthode examine l'autre variable spécifiée, z, et utilise des termes trigonométriques pour obtenir la courbure. L'orateur montre le processus étape par étape de différenciation par rapport à z et comment cela se rapporte aux termes tangents et sécants. La formule finale pour la courbure gaussienne est fournie, qui finit par être légèrement plus désordonnée que la première méthode mais est toujours utile dans les cas où la courbe génératrice est donnée sous la forme r en fonction de z.

  • 00:45:00 Dans cette section, l'orateur explique comment générer des images gaussiennes étendues de solides de révolution et travaille sur un exemple utilisant un tore ou une forme de beignet. Ils expliquent que dans le cas d'objets non convexes comme le tore, il peut y avoir plus d'un point sur l'objet avec la même orientation de surface, ce qui rend la cartographie non inversible. Le tore a deux de ces points, l'un convexe et l'autre un point de selle, qui présente son propre ensemble de défis.

  • 00:50:00 Dans cette section, l'orateur discute du calcul de l'image gaussienne étendue d'un objet non convexe à l'aide de formules pour le rayon et la dérivée seconde. Ils observent que la courbure de la surface passe de positive à négative à certains endroits, divisant l'objet en deux parties avec des courbures différentes. L'orateur propose deux options pour y faire face, soit calculer la courbure gaussienne en tous points avec la même orientation de surface et les additionner, soit utiliser une formule pour la somme des courbures de Gauss qui annule certains termes.

  • 00:55:00 Dans cette section, l'orateur discute de l'image gaussienne étendue (EGI) et de la manière dont elle peut être utilisée pour l'alignement. L'orateur explique que l'EGI pour un tore varie en douceur et a une singularité au pôle, qui peut être visualisée en incorporant la sphère unitaire dans un cylindre unitaire. Cette variation peut être utilisée pour aligner le modèle de l'objet avec les données de vision artificielle, en réunissant les deux sphères avec une distribution qui varie en douceur, mais qui a une croissance rapide vers les pôles. Cependant, cela ne donne pas l'attitude complète, car l'objet peut toujours être tourné autour de l'axe sans rien changer, ce qui est approprié pour un solide de révolution. L'orateur mentionne également comment les gens ont essayé de reconstruire itérativement l'EGI pour le cas polyédrique discret.

  • 01:00:00 Dans cette section, l'orateur explique que la reconstruction d'un objet à partir de son image gaussienne est un problème compliqué qui nécessiterait un gros processus de recherche ou d'optimisation, avec les distances de tous les plans à partir de l'origine comme paramètres. Cependant, cette approche n'est pas nécessaire pour la reconnaissance et l'alignement à l'aide d'images gaussiennes, car la méthode consiste à comparer des distributions sur la sphère et à faire tourner une sphère par rapport à l'autre jusqu'à ce qu'une bonne correspondance soit obtenue. L'orateur introduit également une nouvelle façon de comprendre les bandes sur la sphère, qui permet le calcul de la courbure et une description de l'effet d'écrasement près des pôles.

  • 01:05:00 Dans cette section, le conférencier discute de l'aire d'un tore et de son lien avec l'image gaussienne. Il explique que deux beignets de formes différentes mais de la même zone ont le même EGI, ce qui est un inconvénient à autoriser des objets non convexes. Cette perte d'unicité peut ou non avoir de l'importance dans une application, mais cela montre que lorsque nous étendons cela à des objets non convexes, les choses ne sont pas aussi agréables. De plus, il existe des problèmes avec les éléments de surface cachés dans les objets non convexes, et de petites erreurs peuvent être introduites lors de la construction de l'EGI à l'aide de données numériques.

  • 01:10:00 Dans cette section, le conférencier explique comment traiter numériquement des objets réels imparfaits et les mettre dans une bibliothèque en fonction de leur forme réelle. Ils expliquent comment calculer la normale de surface et l'aire d'un patch triangulaire sur la surface d'un objet à l'aide de données stéréo photométriques ou de modèles de maillage. Ils décrivent ensuite comment créer une distribution de masse sur une sphère basée sur la normale à la surface, qui représente un histogramme de direction. Cette méthode fournit un moyen de comprendre l'effet de la courbure sur la distribution de masse et pourquoi l'ajout de contributions de masse au lieu de les soustraire est bénéfique. Dans l'ensemble, cette technique permet la création d'histogrammes de direction et la représentation des objets dans une bibliothèque en fonction de leur forme réelle.

  • 01:15:00 Dans cette section, l'orateur aborde le concept d'histogrammes de direction, qui impliquent de diviser la sphère en boîtes et de compter les occurrences dans chaque cellule. La méthode est utilisée pour indiquer une forte concentration dans une direction particulière dans des éléments tels que les fibres musculaires parallèles et les directions d'écoulement de l'eau dans le cerveau. Il est également appliqué dans des domaines tels que l'imagerie des tumeurs, où une distribution uniforme dans les histogrammes d'orientation indique un tissu irrégulier. Les inconvénients de l'utilisation de carrés pour diviser le plan sont expliqués avec des formes plus arrondies comme un hexagone étant plus avantageux que les triangles.

  • 01:20:00 Dans cette section, le conférencier discute des défis liés à la sélection de cellules pour les histogrammes de regroupement et de la manière de prendre en compte le bruit aléatoire lors de la comparaison d'histogrammes. Le concept d'avoir un deuxième histogramme décalé est introduit, mais cette solution devient plus coûteuse à mesure que la dimensionnalité augmente. Une autre solution consiste à convoluer la distribution avec une fonction d'étalement, ce qui peut être moins coûteux à faire que la solution précédente. La conférence aborde ensuite le problème de la division d'une sphère et les propriétés souhaitées d'une tessellation, telles que la surface égale, les formes égales, les formes arrondies, un motif régulier et la facilité de regroupement. Il est à noter que ces propriétés souhaitées sont faciles à obtenir dans des cas planaires, mais deviennent plus compliquées sur une surface courbe comme une sphère.

  • 01:25:00 Dans cette section, le conférencier discute du problème de l'alignement d'un solide de révolution sur lui-même après rotation, et de l'avantage de l'alignement sur rotation. Il explique comment une sphère peut être divisée en douze sections en projetant un dodécaèdre sur sa surface, et chacune de ces sections peut être représentée par un nombre. Si la sphère est tournée, les nombres représentant les sections seront simplement permutés, et il n'y aura aucune perte de qualité. Cependant, si les sections se chevauchaient après la rotation, il faudrait redistribuer le poids dans chaque section, ce qui entraînerait une perte de qualité. Le conférencier mentionne ensuite brièvement les motifs réguliers et les solides réguliers comme points de départ pour les histogrammes d'orientation, mais note que cela sera discuté plus en détail dans la prochaine conférence.
 

MIT 6.0002 Intro to Computational Thinking and Data Science, automne 2016. Cours 1. Introduction, problèmes d'optimisation



1. Introduction, problèmes d'optimisation (MIT 6.0002 Intro to Computational Thinking and Data Science)

Cette vidéo présente le cours, "1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)", et discute des prérequis et des objectifs du cours. L'objectif principal du cours est l'utilisation de modèles informatiques pour comprendre le monde et prédire les événements futurs. La vidéo traite des modèles d'optimisation, qui constituent un moyen simple de résoudre des problèmes impliquant des objectifs et des contraintes. La vidéo traite également d'un problème d'optimisation spécifique appelé le problème du sac à dos, qui est un problème dans lequel une personne doit choisir les objets à prendre parmi une quantité finie d'objets. La vidéo explique comment optimiser un menu, à l'aide d'un algorithme gourmand. La vidéo traite également d'un algorithme efficace d'allocation des ressources, appelé "gourmand par valeur".

  • 00:00:00 Cette vidéo présente le cours, "1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)", et discute des prérequis et des objectifs du cours. L'objectif principal du cours est l'utilisation de modèles informatiques pour comprendre le monde et prédire les événements futurs.

  • 00:05:00 La vidéo traite des modèles d'optimisation, qui sont un moyen simple de résoudre des problèmes impliquant des objectifs et des contraintes. La vidéo traite également d'un problème d'optimisation spécifique appelé le problème du sac à dos, qui est un problème dans lequel une personne doit choisir les objets à prendre parmi une quantité finie d'objets.

  • 00:10:00 Dans cette vidéo, le problème du sac à dos continu ou dit fractionnaire est expliqué et un algorithme glouton est décrit. Le problème de prendre la meilleure chose en premier est plus compliqué, et une formalisation du problème est montrée.

  • 00:15:00 L'algorithme glouton résout un problème d'optimisation en mettant le meilleur article disponible dans le sac à dos lorsqu'il se remplit. Cet algorithme est efficace, mais il n'est pas garanti de trouver une solution qui soit la meilleure possible.

  • 00:20:00 La vidéo explique comment optimiser un menu à l'aide d'un algorithme gourmand. L'algorithme est implémenté dans une classe appelée Food, qui a une fonction d'obtention de valeur, d'obtention de la densité de coût et de représentation de chaîne. Le menu de construction de fonctions prend une liste de noms et une liste de valeurs de longueur égale, et utilise la fonction clé pour déterminer ce que l'on entend par "meilleur".

  • 00:25:00 Cette vidéo présente un algorithme efficace d'allocation des ressources, appelé "gourmand par valeur". L'algorithme prend en compte le poids et les demandes d'une ressource et est capable d'allouer efficacement des ressources pour un grand nombre.

  • 00:30:00 La vidéo traite de l'utilisation des expressions lambda pour créer une fonction anonyme. Il explique que les expressions lambda peuvent être utilisées pour créer une fonction qui évalue une expression sur une séquence de paramètres. Il montre également comment appeler la fonction d'une expression lambda.

  • 00:35:00 La vidéo explique comment les algorithmes gourmands peuvent conduire à des résultats différents selon l'ordre de tri, et comment cela peut être un problème avec l'escalade. Il montre également comment modifier un algorithme gourmand pour toujours obtenir le meilleur résultat.

  • 00:40:00 La vidéo explique comment l'algorithme gourmand peut parfois conduire à de meilleures solutions que l'algorithme plus optimal, mais plus long.
 

Cours 2. Problèmes d'optimisation



2. Problèmes d'optimisation

Cette vidéo explique comment résoudre des problèmes d'optimisation à l'aide d'une technique appelée programmation dynamique. L'exemple utilisé est le problème du sac à dos, dans lequel des choix différents à chaque nœud aboutissent à la résolution du même problème. La mise en œuvre du mémo de la fonction maxVal est discutée et il est montré que le nombre d'appels augmente lentement pour la solution de programmation dynamique.

  • 00:00:00 La vidéo discute des avantages et des inconvénients des algorithmes gourmands et fournit un exemple de la manière dont un arbre de recherche peut être utilisé pour résoudre un problème.

  • 00:05:00 La vidéo traite de la traversée d'un arbre, expliquant que le nœud le plus à gauche a le plus d'éléments possibles et le nœud le plus à droite a le moins d'éléments possibles. L'algorithme est simple et de complexité asymptotique.

  • 00:10:00 Cette vidéo explique comment fonctionne l'algorithme récursif pour résoudre les problèmes d'optimisation. L'algorithme commence par examiner la branche gauche de l'arbre si l'élément actuel ne peut pas être pris, puis passe à la branche droite s'il le peut. Si aucune branche ne peut être prise, l'algorithme renvoie la valeur maximale de la liste toConsider.

  • 00:15:00 Dans cette vidéo, l'auteur montre comment améliorer les performances d'un algorithme de recherche en utilisant un algorithme vraiment optimal.

  • 00:20:00 Dans cette vidéo, nous découvrons les problèmes d'optimisation et comment ils peuvent être résolus à l'aide d'une technique appelée programmation dynamique. La programmation dynamique est un moyen de résoudre des problèmes d'optimisation qui est basé sur la compréhension d'un mathématicien de la façon dont les données s'accumulent au fil du temps.

  • 00:25:00 La programmation dynamique est une méthode pour éviter de répéter plusieurs fois les mêmes calculs. Il est utilisé dans le problème de Fibonacci, dans lequel la réponse à un nombre de Fibonacci est calculée en prenant les deux nombres de Fibonacci précédents et en les additionnant.

  • 00:30:00 Dans cette vidéo, l'auteur discute des avantages de l'utilisation de la mémorisation - une technique qui stocke les résultats dans un tableau plutôt que de les calculer de manière récursive. Ils montrent comment cela peut être utilisé pour améliorer les performances d'une fonction de Fibonacci en résolvant d'abord des sous-problèmes plus petits, puis en combinant les résultats.

  • 00:35:00 La vidéo traite des problèmes d'optimisation et comment, dans certains cas, des solutions peuvent être trouvées en résolvant le même problème plusieurs fois. Il aborde également le problème du sac à dos, dont il est démontré qu'il a une sous-structure optimale, c'est-à-dire deux nœuds qui résolvent le même problème. Cependant, la vidéo souligne également que dans certains cas, des solutions aux problèmes peuvent être trouvées en résolvant différents problèmes - dans ce cas, deux nœuds qui résolvent le même problème en prenant différentes bières à partir d'un menu.

  • 00:40:00 La vidéo explique comment résoudre les problèmes d'optimisation à l'aide d'une solution de programmation dynamique. L'arbre de l'exemple montre comment différents choix à chaque nœud (ce qu'il faut prendre et ne pas prendre) aboutissent à la résolution du même problème, même si les solutions individuelles peuvent sembler différentes. La mise en œuvre du mémo de la fonction maxVal est discutée et il est montré que le nombre d'appels augmente lentement pour la solution de programmation dynamique.

  • 00:45:00 Cette vidéo explique comment les problèmes d'optimisation peuvent être difficiles à résoudre, mais la programmation dynamique peut souvent fournir une solution adéquate mais pas optimale.
 

Cours 3. Modèles de la théorie des graphes



3. Modèles de la théorie des graphes

Cette vidéo explique comment la théorie des graphes peut être utilisée pour comprendre et résoudre des problèmes liés aux réseaux. La vidéo présente le concept de graphe et explique comment utiliser la théorie des graphes pour trouver le chemin le plus court entre deux points. La vidéo montre également comment utiliser la théorie des graphes pour optimiser un réseau et explique comment le modèle peut être appliqué à des problèmes du monde réel.

  • 00:00:00 Cette vidéo présente la théorie des graphes, une branche des mathématiques qui étudie les structures et la dynamique des réseaux. La théorie des graphes permet de concevoir et d'étudier plus facilement des modèles d'optimisation, ainsi que de comprendre comment les données circulent dans les réseaux. La théorie des graphes se décompose en deux catégories : les graphes et les graphes avec arêtes. Les graphes ont généralement deux éléments, les nœuds et les arêtes. Les nœuds représentent des points de données et les arêtes représentent les connexions entre eux. Les graphes avec des arêtes sont plus courants et sont utilisés pour modéliser une relation entre deux entités. Nous verrons deux manières de créer des graphes avec des arêtes : non orienté et orienté. Nous explorerons également comment ajouter des informations aux arêtes, telles que les poids. Enfin, nous serons initiés à une méthode de navigation dans les graphes, connue sous le nom de minimisation des coûts ou chemin le plus court.

  • 00:05:00 Les graphiques sont composés d'arêtes ou d'arcs et peuvent être utilisés pour modéliser des relations entre entités. Ils peuvent être utilisés dans les réseaux de transport, les réseaux financiers et les réseaux sociaux, entre autres.

  • 00:10:00 Cette vidéo présente la théorie des graphes, qui est un domaine mathématique utilisé pour comprendre les réseaux de relations. Les graphiques peuvent être utilisés pour représenter des situations du monde réel, et ils peuvent être utilisés pour déduire des informations telles que le chemin le plus court et la séquence d'interactions entre les éléments d'un réseau. Cette vidéo montre comment utiliser la théorie des graphes pour résoudre des problèmes tels que les déplacements et la navigation.

  • 00:15:00 La théorie des graphes est un domaine des mathématiques qui traite des structures et des interactions des réseaux. Cette vidéo suit une explication simple de la façon dont la théorie des graphes est utilisée pour résoudre les problèmes de chemin le plus court.

  • 00:20:00 L'auteur présente un modèle de théorie des graphes, qui est un graphe orienté avec des nœuds et des arêtes, et un moyen de stocker les nœuds et les arêtes dans un dictionnaire. Le modèle permet une représentation facile d'un graphique, mais n'est pas le moyen le plus efficace de le faire. L'auteur introduit une liste d'adjacence, qui est un moyen plus efficace de représenter un graphe, et l'utilise pour montrer comment ajouter une arête et obtenir tous les enfants d'un nœud.

  • 00:25:00 Cette vidéo explique comment créer, rechercher et imprimer des graphiques à l'aide du langage de programmation Python. Les graphes peuvent être créés en tant que sous-classe de la classe digraph, qui permet des graphes orientés et non orientés. La vidéo montre un exemple de la façon d'ajouter une arête entre deux nœuds dans un graphique.

  • 00:30:00 La vidéo présente trois modèles de théorie des graphes : les problèmes de chemin le plus court, la navigation routière et les réseaux de communication. Le premier modèle, les problèmes de plus court chemin, est un problème de navigation dont le but est de trouver un itinéraire entre deux villes. Le deuxième modèle, la navigation routière, est un problème dont le but est de trouver un chemin entre deux points dans un graphe. Le troisième modèle, les réseaux de communication, est un problème dont le but est de trouver le chemin le plus court entre deux nœuds d'un réseau. La vidéo présente deux algorithmes pour résoudre les problèmes de chemin le plus court : la recherche en profondeur d'abord et la division pour régner.

  • 00:35:00 Dans la première recherche approfondie, l'algorithme commence par le nœud source et suit le premier bord, vérifiant s'il se trouve au bon emplacement. Si ce n'est pas le cas, l'algorithme suit le premier bord hors du nœud et continue de suivre les bords dans cet ordre jusqu'à ce qu'il trouve le nœud cible ou qu'il n'ait plus d'options. Dans l'exemple donné, l'algorithme commence au nœud source et suit le premier chemin vers le bas de l'arbre de recherche, en imprimant des informations en cours de route. Si le nœud n'est pas dans le chemin, l'algorithme suit le premier chemin hors du nœud et explore de manière récursive les enfants du nœud jusqu'à ce qu'il trouve un chemin vers le nœud cible.

  • 00:40:00 Cette vidéo présente le modèle de la théorie des graphes, qui est un moyen de comprendre comment trouver des solutions aux problèmes. Le modèle est basé sur l'idée qu'un chemin est une liste de nœuds et que la première recherche en profondeur peut être utilisée pour trouver une solution. Le modèle est illustré par deux exemples. Le premier exemple montre comment trouver un chemin de Boston à Chicago, et le deuxième exemple montre comment trouver un chemin de Phoenix à New York. Après avoir présenté le modèle, la vidéo montre comment utiliser la recherche en profondeur d'abord pour trouver une solution à un problème.

  • 00:45:00 Cette vidéo montre comment les modèles de la théorie des graphes peuvent être utilisés pour résoudre des problèmes d'optimisation. La vidéo montre d'abord comment un algorithme de recherche en profondeur d'abord peut être modifié pour minimiser la somme des poids sur les bords, puis montre comment la recherche en largeur d'abord peut être utilisée pour trouver le chemin pondéré le plus court.

  • 00:50:00 Cette vidéo présente des modèles de théorie des graphes, utilisés pour étudier les relations entre variables.
 

Cours 4. Pensée stochastique



4. Pensée stochastique

Le professeur Guttag présente les processus stochastiques et la théorie des probabilités de base.

Dans cette vidéo, le conférencier discute de la différence dans les calculs de probabilité entre le problème de deux personnes partageant un anniversaire et le problème de trois personnes partageant un anniversaire. Il explique que le problème complémentaire pour deux personnes est simple, car il ne concerne que la question de savoir si tous les anniversaires sont différents. Cependant, pour trois personnes, le problème complémentaire implique une disjonction compliquée avec de nombreuses possibilités, ce qui rend les mathématiques beaucoup plus complexes. L'orateur montre comment les simulations peuvent être utilisées pour répondre facilement à ces questions probabilistes au lieu de s'appuyer sur des calculs au crayon et sur papier. Il discute également de l'hypothèse selon laquelle tous les anniversaires sont également probables et de la façon dont la distribution des anniversaires aux États-Unis n'est pas uniforme, certaines dates étant plus courantes ou rares que d'autres. Enfin, l'orateur montre au public une carte thermique des anniversaires des étudiants du MIT et conclut qu'il est plus facile d'ajuster le modèle de simulation que d'ajuster le modèle analytique pour tenir compte d'une distribution non uniforme des dates de naissance.

 

Cours 5. Marches aléatoires



5. Marches aléatoires

Cette vidéo sur les marches aléatoires souligne l'importance de les étudier et de comprendre comment la simulation peut aider à programmer des concepts dans des disciplines scientifiques et sociales. L'orateur commence par illustrer comment le nombre de pas qu'un ivrogne fait affecte sa distance par rapport à l'origine. La vidéo présente ensuite la marche aléatoire biaisée et l'ivresse masochiste, montrant comment le processus de simulation et d'itération fonctionne à l'aide de simples commandes de traçage. L'orateur souligne l'importance de construire des simulations progressivement et d'effectuer des vérifications d'intégrité pour garantir leur exactitude, et conclut en discutant de l'art de créer différents types de tracés pour représenter les données. La vidéo présente également WormField comme un moyen de fournir plus de variation et de complexité dans la simulation.

  • 00:00:00 Dans cette section, Guttag explique pourquoi les marches aléatoires sont importantes et présente le concept de marche d'un ivrogne à titre d'exemple. Il pose la question de savoir s'il existe une relation intéressante entre le nombre de pas que fait un ivrogne et la distance qui les sépare de l'origine. Pour illustrer cela, il donne un petit exemple et demande au public de faire un sondage pour savoir si plus l'ivrogne fait de pas, plus il est susceptible d'être éloigné, ou si le nombre de pas qu'il fait n'a pas d'importance. Guttag mentionne également que l'étude des marches aléatoires est utile pour modéliser les processus dans diverses disciplines scientifiques et sociales, et pour démontrer comment la simulation peut aider à comprendre le monde qui nous entoure tout en enseignant des sujets importants liés à la programmation.

  • 00:05:00 Dans cette section de la vidéo sur les marches aléatoires, l'orateur commence par analyser la distance moyenne qu'une personne ivre serait à partir de son point de départ après avoir fait un ou deux pas. En utilisant le théorème de Pythagore, ils déterminent qu'en moyenne, la personne ivre serait plus éloignée de son point de départ après avoir fait deux pas. Ils analysent ensuite ce qui se passe après 100 000 pas et recourent à une simulation pour calculer la distance moyenne depuis l'origine de n marches. Pour se préparer à la simulation, l'orateur définit quelques abstractions utiles telles que le lieu, le terrain et la personne ivre. La classe Drunk sert de classe de base utilisée pour définir deux sous-classes, y compris la sous-classe ivre habituelle.

  • 00:10:00 Dans cette section, nous en apprenons davantage sur la marche aléatoire biaisée, où un ivrogne peut faire un pas en augmentant y, en diminuant y, en augmentant x ou en diminuant x, et en n'en renvoyant qu'un au hasard. L'ivrogne masochiste est une sous-classe de l'ivrogne habituel et préfère se déplacer vers le nord mais fait 1,1 pas par rapport à un pas en avant et seulement 9/10 d'un pas lorsqu'il se déplace vers le sud. Bien que cela suggère une marche aléatoire biaisée, l'immuabilité existe car les ivrognes et les lieux restent inchangés. Cependant, les champs sont mutables car ils mappent bu à leur emplacement dans le champ via un dictionnaire. Pour vérifier si l'ivrogne est là ou pour obtenir l'emplacement du champ, nous utilisons des messages d'erreur de valeur. Lors de l'appel de moveDrunk, les distances en x et y sont obtenues à partir de la fonction takeStep, et self.drunk est affecté à cette nouvelle distance.

  • 00:15:00 Dans cette section, le présentateur explique comment simuler des marches aléatoires et comment les utiliser pour répondre à des questions sur la façon dont différents types d'ivrognes se déplacent. La simulation consiste à créer un champ et à y ajouter des ivrognes, où les ivrognes effectuent un nombre différent de pas aléatoires dans le champ. Le présentateur montre comment simuler une seule marche, puis montre comment simuler plusieurs marches pour répondre aux questions sur le comportement des ivrognes. En faisant la moyenne des distances, en regardant la moyenne, le minimum ou le maximum, nous pouvons voir à quelle distance les différents types d'ivrognes finissent par s'éloigner de l'origine. Le présentateur discute ensuite des résultats de la simulation et demande s'ils semblent plausibles.

  • 00:20:00 Dans cette section, le professeur John Guttag met l'accent sur l'importance d'un contrôle d'intégrité lors de la construction d'une simulation. Il exécute une simple vérification de l'intégrité du cas en utilisant l'exemple d'un homme ivre prenant des mesures, ce qui révèle une erreur de programmation dans le code de simulation qui n'était pas immédiatement apparente. Après avoir corrigé l'erreur, Guttag exécute à nouveau la simulation pour revérifier les résultats et rassure les téléspectateurs sur le fait que la réussite d'un contrôle d'intégrité ne garantit pas qu'une simulation est correcte, mais c'est une bonne indication qu'elle est en bon état.

  • 00:25:00 Dans cette section, l'orateur décrit une expérience comparant l'ivrogne ordinaire à un ivrogne masochiste, où le premier fait des pas au hasard, et la version masochiste fait plus souvent des pas dans la direction opposée à la direction précédente. L'expérience montre que l'ivrogne masochiste fait beaucoup plus de progrès que l'ivrogne ordinaire, ce qui signifie que son mouvement est biaisé dans une direction. Pour comprendre pourquoi, l'orateur utilise Pylab pour tracer la ligne de tendance pour chaque type d'ivrogne afin de visualiser la distance dans le temps, avec PyLab combinant les bibliothèques NumPy, SciPy et MatPlotLib pour donner des capacités de traçage de type MATLAB. Le conférencier explique également la syntaxe de base de la fonction plot et ses arguments pour Python.

  • 00:30:00 Dans cette section, l'orateur montre comment produire des tracés à l'aide de PyLab, à l'aide de différents arguments pouvant être utilisés avec les fonctions de tracé et de légende. Il exprime également son opinion que la maîtrise de l'art de faire des intrigues est une compétence précieuse. De plus, l'orateur enquête et montre des tracés des tendances de distance entre un ivrogne habituel et un ivrogne masochiste. L'orateur découvre que l'ivrogne habituel se déplace à peu près à la racine carrée du nombre de pas, tandis que la tendance ivre masochiste à distance se déplace à un taux de numSteps fois 0,05. L'orateur conclut en démontrant un nouveau type de tracé, où les points de données sont déconnectés par des lignes.

  • 00:35:00 Dans cette section, le conférencier explique comment la visualisation peut fournir un aperçu des données. En traçant les emplacements à la fin de promenades aléatoires, il montre comment se comportent différents types d'ivrognes et les différences entre eux. Il souligne l'importance d'utiliser des graphiques pour comprendre les données plutôt que de simplement présenter des feuilles de calcul des paramètres. L'orateur présente également OddField, une sous-classe de Field avec des trous de ver qui téléportent l'emplacement d'un ivrogne à un endroit différent. Il crée un dictionnaire de trous de ver avec des emplacements aléatoires où l'ivrogne peut être téléporté, permettant une plus grande variabilité dans la simulation.

  • 00:40:00 Dans cette section de la vidéo, l'instructeur explique comment les marches aléatoires sont utilisées pour simuler le mouvement d'un ivrogne et comment les trous de ver produisent des effets profonds sur l'endroit où les ivrognes se retrouvent. Il souligne également l'importance de construire progressivement la simulation, en commençant par définir les classes, en construisant des fonctions correspondant à un ou plusieurs essais, et en rapportant les résultats. Il montre en outre comment il utilise des commandes de traçage simples pour produire divers types de tracés qui aident à mieux comprendre la simulation.

  • 00:45:00 Dans cette section, l'orateur parle d'un paradigme commun où il met en place un itérateur de style une fois pour toutes, définissant n styles, donc quand il veut tracer un nouveau type d'ivresse, il appelle simplement l'itérateur de style pour obtenir le style suivant. Les styles incluent le marqueur, la ligne, la couleur et la taille, entre autres, qu'il aime modifier par rapport à leurs paramètres par défaut pour rendre l'intrigue plus facile à lire. L'orateur souligne la souplesse de cette approche, encourageant l'expérimentation pour parvenir à différents styles d'intrigue. Dans la prochaine conférence, il approfondira la simulation d'autres phénomènes et discutera de la crédibilité d'une simulation.
 

Cours 6. Simulation de Monte Carlo



6. Simulation de Monte-Carlo

La vidéo explique comment fonctionne la simulation de Monte Carlo et comment elle peut être utilisée pour estimer les valeurs d'une quantité inconnue. La vidéo explique comment la méthode fonctionne et comment elle est affectée par différentes tailles d'échantillons.

  • 00:00:00 Dans cette conférence, John Guttag explique comment fonctionne la simulation de Monte Carlo et comment elle est utile pour estimer les valeurs d'une quantité inconnue. Il note également que la clé du succès de la méthode est que l'échantillon tiré de la population aura tendance à refléter les propriétés de la population à partir de laquelle il est tiré.

  • 00:05:00 La vidéo traite de la simulation de Monte Carlo, dans laquelle un échantillon est tiré d'une population et analysé pour déterminer quel est le comportement moyen. Dans l'exemple, une pièce est lancée 100 fois et pile ou face est déterminé. Si c'est face, la probabilité du prochain flip est calculée. Si les queues sont déterminées, la probabilité du prochain retournement est calculée sur la base des preuves disponibles. Si face est à nouveau déterminée, la probabilité du prochain lancer est calculée sur la base des preuves disponibles et de l'hypothèse que la pièce est juste. Si c'est face une troisième fois, la probabilité du prochain lancer est basée sur l'hypothèse que la pièce est équitable et sur les preuves disponibles. Parce qu'il n'y a aucune raison de croire que la pièce est équitable, la probabilité du prochain lancer est faible.

  • 00:10:00 Dans les simulations de Monte Carlo, les résultats imprévisibles d'événements aléatoires sont capturés par la variance des résultats. À mesure que la variance augmente, la confiance dans l'exactitude de la simulation diminue. La roulette est un jeu avec une variance élevée, ce qui signifie que les prédictions du résultat sont difficiles.

  • 00:15:00 Dans cette vidéo, une simulation de Monte Carlo est effectuée pour montrer que le rendement attendu d'un tour de roulette est de 0 si la probabilité du résultat est la même à chaque fois. La loi des grands nombres stipule que lorsque le nombre d'essais tend vers l'infini, la probabilité que le rendement soit différent de 0 converge vers 0.

  • 00:20:00 "L'erreur du joueur" est la croyance que si ses attentes ne sont pas satisfaites dans une situation donnée, cela sera corrigé à l'avenir. La régression vers la moyenne est un terme inventé par Francis Galton en 1885 qui décrit comment, à la suite d'un événement extrême (comme des parents inhabituellement grands), le prochain événement aléatoire est susceptible d'être moins extrême. Ce concept s'applique à la roulette, où si quelqu'un fait tourner une roue de roulette juste 10 fois et obtient 10 rouges, c'est un événement extrême. L'erreur du joueur dirait que les 10 prochains tours devraient entraîner le tirage de plus de noirs, par opposition à la probabilité de 1,1024 qui serait attendue si les tours étaient indépendants. Le professeur Grimson n'est pas le seul à pouvoir faire de mauvaises blagues.

  • 00:25:00 Dans cette vidéo, John Guttag explique comment fonctionne la régression vers la moyenne et pourquoi elle est importante dans le jeu. Il montre ensuite comment la roulette européenne est une sous-classe de la roulette équitable dans laquelle il ajoute une poche supplémentaire, 0, au jeu. Cette poche supplémentaire affecte les chances d'obtenir un numéro et le rend plus proche de 0 que la roulette américaine, qui est une sous-classe de la roulette européenne dans laquelle les chances sont toujours les mêmes.

  • 00:30:00 La méthode de simulation de Monte Carlo est utilisée pour estimer les probabilités et les ratios de probabilités. La vidéo montre comment différentes tailles d'échantillon peuvent affecter la précision des probabilités estimées. Les mathématiques derrière la variance et l'écart type sont également expliquées.

  • 00:35:00 La simulation de Monte Carlo est une méthode d'estimation de valeurs inconnues. La simulation de Monte Carlo peut être utilisée pour estimer le rendement attendu des paris sur une roue de roulette, la note attendue à un examen et le nombre de voix attendu d'un candidat politique. La règle empirique stipule que 68 % des données seront à moins d'un écart type devant ou derrière la moyenne.

  • 00:40:00 La règle empirique dit que nous devrions avoir un haut degré de confiance dans la moyenne calculée dans une simulation si la distribution des erreurs est normale.

  • 00:45:00 Cette vidéo explique la fonction de densité de probabilité (PDF) et comment elle est utilisée pour calculer la probabilité qu'une variable aléatoire prenne des valeurs spécifiques. La fonction de densité de probabilité est symétrique autour de la moyenne et a un pic à la moyenne, c'est pourquoi elle est souvent utilisée pour décrire la probabilité qu'une variable aléatoire prenne une valeur spécifique. La fraction de l'aire sous la courbe entre moins 1 et 1 est d'environ 68 %.
 

Cours 7. Intervalles de confiance



7. Intervalles de confiance

Cette vidéo couvre divers sujets liés aux statistiques, notamment les distributions normales, le théorème central limite et l'estimation de la valeur de pi à l'aide de simulations. Le conférencier utilise Python pour démontrer comment tracer des histogrammes et des fonctions de densité de probabilité pour des distributions normales, ainsi que comment utiliser la technique de quadrature pour approximer les intégrales. De plus, le conférencier souligne l'importance de comprendre les hypothèses qui sous-tendent les méthodes statistiques et la nécessité de vérifications de l'exactitude pour assurer la validité des simulations. Bien que les intervalles de confiance puissent fournir des déclarations statistiquement valides, ils ne reflètent pas nécessairement la réalité, et il est essentiel d'avoir des raisons de croire que les résultats d'une simulation sont proches de la valeur réelle.

  • 00:00:00 Dans cette section, le conférencier parle des hypothèses sous-jacentes à la règle empirique et de la manière dont les distributions normales sont générées en Python à l'aide de la bibliothèque aléatoire. Ils montrent comment produire une approximation discrète d'une distribution normale et comment tracer un histogramme avec des cases pondérées. Le but de la pondération des bacs est de donner à chaque article un poids différent afin que l'axe y puisse être ajusté en conséquence.

  • 00:05:00 Dans cette section, l'instructeur explique comment utiliser Python pour tracer des histogrammes et des fonctions de densité de probabilité (PDF) pour les distributions normales. Il montre le code de création d'un histogramme à l'aide de la bibliothèque pylab, où l'axe des ordonnées affiche la fraction des valeurs comprises dans une plage particulière. Il définit ensuite les PDF et montre comment les tracer à l'aide de Python. La courbe PDF représente la probabilité qu'une variable aléatoire tombe entre deux valeurs, où l'aire sous la courbe donne la probabilité que cela se produise. L'instructeur utilise un exemple de distribution normale standard avec une moyenne nulle et un écart type de un.

  • 00:10:00 Dans cette section, l'orateur explique comment tracer une fonction de densité de probabilité (PDF) et interprète les valeurs Y sur le graphique. Les valeurs Y sont en fait des densités ou des dérivées de la fonction de distribution cumulative, et ce ne sont pas des probabilités réelles car elles peuvent dépasser 1 ou être négatives. L'orateur souligne que la forme de la courbe est plus importante que les valeurs Y elles-mêmes, car l'intégration de l'aire sous la courbe permet de déterminer les probabilités de valeurs comprises dans une certaine fourchette. L'orateur présente ensuite brièvement l'algorithme « integrate quad » dans la bibliothèque « scipy » pour l'intégration.

  • 00:15:00 Dans cette section de la vidéo, l'orateur explique comment utiliser une technique numérique appelée quadrature pour approximer les intégrales. Il montre un exemple de cette technique avec la fonction gaussienne, qui prend trois arguments, et montre comment les passer à la fonction de quadrature avec un tuple fournissant toutes les valeurs des arguments. L'orateur teste ensuite la règle empirique pour la fonction gaussienne en utilisant des valeurs aléatoires pour mu et sigma, et montre que les résultats sont dans la plage attendue, démontrant la validité de la règle. Enfin, il explique l'importance des distributions normales et leur prévalence dans de nombreux domaines.

  • 00:20:00 Dans cette section, l'orateur discute de la distribution normale et de son application à divers scénarios, tels que la taille des hommes et des femmes ou l'évolution des prix du pétrole. Cependant, tout ne suit pas une distribution normale, comme les tours d'une roue de roulette. Lorsqu'il s'agit d'un ensemble de spins, l'orateur montre comment s'applique le théorème central limite, qui stipule que si un échantillon suffisamment grand est tiré d'une population, les moyennes des échantillons seront normalement distribuées et auront une moyenne proche de celle des population.

  • 00:25:00 Dans cette section, l'orateur explique comment la variance des moyennes d'échantillon est liée à la variance de la population divisée par la taille de l'échantillon. L'orateur utilise une simulation de lancement d'un dé plusieurs fois avec différents nombres de dés et montre que l'écart type diminue à mesure que le nombre de dés augmente. De plus, l'orateur montre comment la distribution des moyens forme une distribution normale. Ceci démontre l'utilité du théorème central limite. L'orateur applique également ce concept au jeu de la roulette et montre comment la distribution des gains moyens des tours de roulette prend une forme similaire à une distribution normale.

  • 00:30:00 Dans cette section, l'orateur explique comment, quelle que soit la forme de la distribution des valeurs d'origine, le théorème central limite (CLT) peut être utilisé pour estimer la moyenne à l'aide d'échantillons suffisamment grands. L'orateur explique que même si la règle empirique n'est pas parfaitement exacte, elle est suffisamment proche pour être utile dans la plupart des cas. De plus, les simulations aléatoires et de Monte Carlo peuvent être utiles pour calculer quelque chose qui n'est pas aléatoire par nature, comme la valeur de pi. Ceci est démontré par une explication historique de la façon dont les gens ont estimé la valeur de pi à travers l'histoire.

  • 00:35:00 Dans cette section, l'orateur discute des différentes méthodes utilisées pour estimer la valeur de pi à travers l'histoire. Les méthodes comprennent la construction d'un polygone à 96 côtés et une simulation de Monte Carlo, qui consiste à faire tomber des aiguilles au hasard pour estimer la valeur de pi. La simulation a utilisé une formule mathématique pour estimer pi en trouvant le rapport des aiguilles dans un cercle aux aiguilles dans un carré. L'orateur mentionne également la tentative de simulation de la méthode de Monte Carlo à l'aide d'un archer et l'utilisation de Python pour construire une simulation de Monte Carlo.

  • 00:40:00 Dans cette section, l'orateur explique comment estimer pi à l'aide d'une simulation et comment déterminer sa précision à l'aide d'intervalles de confiance. La simulation consiste à lancer des aiguilles sur un sol et à compter combien traversent une ligne, avec plus d'aiguilles conduisant à de meilleures estimations de pi. Pour déterminer l'exactitude, l'écart type est calculé en prenant la moyenne des estimations et en divisant par la longueur des estimations. Une boucle est ensuite utilisée pour continuer à augmenter le nombre d'aiguilles jusqu'à ce que l'estimation de pi soit dans une certaine plage de précision, permettant une plus grande confiance dans l'estimation. Bien que les estimations de pi ne soient pas meilleures de manière monotone à mesure que le nombre d'aiguilles augmente, les écarts-types diminuent de manière monotone, ce qui augmente la confiance dans l'estimation. L'orateur souligne qu'il ne suffit pas de produire une bonne réponse, mais plutôt d'avoir des raisons de croire que la réponse est proche de la valeur réelle.

  • 00:45:00 Dans cette section, l'orateur discute de la différence entre les déclarations statistiquement valides et les déclarations vraies. Bien qu'une simulation puisse nous donner des intervalles de confiance statistiquement valides, elle peut ne pas refléter fidèlement la réalité. L'orateur introduit un bogue dans leur simulation en remplaçant 4 par 2, et alors que les intervalles de confiance sont valides, l'estimation de pi est complètement fausse. Pour s'assurer de l'exactitude de la simulation, un contrôle d'intégrité doit être effectué. La technique généralement utile de l'échantillonnage ponctuel aléatoire est introduite pour estimer la superficie de n'importe quelle région et utilisée comme exemple de la façon dont le caractère aléatoire peut être utilisé pour calculer quelque chose qui n'est pas intrinsèquement aléatoire, comme l'intégration.
 

Cours 8. Échantillonnage et erreur standard



8. Échantillonnage et erreur standard

Cette vidéo sur "l'échantillonnage et l'erreur standard" couvre divers concepts des statistiques inférentielles, en mettant l'accent sur les techniques d'échantillonnage pour estimer les paramètres de la population. La vidéo explore l'échantillonnage probabiliste et l'échantillonnage aléatoire simple, ainsi que l'échantillonnage stratifié, et discute du théorème central limite, qui concerne la cohérence des moyennes et des écarts-types sur des échantillons aléatoires d'une population. La vidéo aborde également des sujets tels que les barres d'erreur, les intervalles de confiance, l'écart type et l'erreur type, le choix de la taille d'échantillon appropriée et les types de distribution. L'orateur souligne l'importance de comprendre l'erreur type, car cela aide à estimer l'écart type de la population sans examiner l'ensemble de la population, et comment il s'agit d'un concept largement discuté dans différents départements.

  • 00:00:00 Dans cette section, l'instructeur aborde le thème de l'échantillonnage en relation avec les statistiques inférentielles. L'idée clé est d'examiner un ou plusieurs échantillons aléatoires tirés d'une population pour faire des références sur cette population. L'instructeur discute de l'échantillonnage probabiliste, dans lequel chaque membre de la population a une probabilité non nulle d'être inclus dans un échantillon. L'échantillonnage aléatoire simple est exploré en profondeur, ce qui nécessite que chaque membre de la population ait une probabilité égale d'être choisi dans l'échantillon. Cependant, l'instructeur note que l'échantillonnage stratifié peut être nécessaire dans certaines situations, comme lorsqu'une population n'est pas uniformément répartie, et que les sous-groupes doivent être partitionnés et représentés proportionnellement dans l'échantillon.

  • 00:05:00 Dans cette section, le concept d'échantillonnage stratifié est introduit en tant que méthode d'échantillonnage de petits sous-groupes qui doivent être représentés proportionnellement à leur taille dans la population. L'exemple d'utilisation d'un échantillonnage stratifié pour s'assurer que les étudiants en architecture sont représentés est donné. Cependant, l'échantillonnage stratifié peut être difficile à faire correctement, donc ce cours s'en tiendra à des échantillons aléatoires simples. Le cours fournit un exemple d'ensemble de données sur les températures maximales et minimales quotidiennes pour 21 villes américaines de 1961 à 2015. Les données sont visualisées à l'aide d'histogrammes, qui montrent que les données ne sont pas normalement distribuées. La température maximale quotidienne moyenne est de 16,3 degrés Celsius avec un écart type d'environ 9,4 degrés.

  • 00:10:00 Dans cette section, la vidéo traite de l'idée d'échantillonnage et de sa relation avec la population dans son ensemble. En prenant des échantillons aléatoires de taille 100 dans une population et en comparant les moyennes et les écarts-types, la vidéo montre que même si les échantillons individuels peuvent différer de la population, dans l'ensemble, les moyennes et les écarts-types seront cohérents avec la population en raison du théorème central limite . En exécutant une simulation de mille échantillons, la vidéo montre comment la moyenne des moyennes des échantillons est de 16,3 et l'écart type est de 0,94, fournissant un intervalle de confiance à 95 % de 14,5 à 18,1. Bien que l'intervalle de confiance soit large, il inclut la moyenne de la population.

  • 00:15:00 Dans cette section, la vidéo discute des moyens d'obtenir une limite plus étroite sur l'estimation de la moyenne réelle de la population. Le prélèvement de plus d'échantillons et le prélèvement d'échantillons plus grands sont tous deux envisagés. L'exécution d'une expérience avec la taille de l'échantillon augmentée de 100 à 200 a entraîné une chute assez spectaculaire de l'écart type de 0,94 à 0,66, indiquant que des tailles d'échantillon plus grandes peuvent aider à obtenir une estimation plus précise. L'utilisation de barres d'erreur pour visualiser la variabilité des données est également introduite. Les intervalles de confiance peuvent être utilisés pour déterminer si les moyennes sont statistiquement significativement différentes ou non. Si les intervalles de confiance ne se chevauchent pas, il est possible de conclure que les moyennes sont significativement différentes. Lorsqu'ils se chevauchent, une enquête plus approfondie est nécessaire.

  • 00:20:00 Dans cette section, l'orateur explique comment tracer des barres d'erreur à l'aide du package PyLab en Python. En utilisant l'écart type multiplié par 1,96, on peut créer des barres d'erreur qui montrent la moyenne et le niveau de confiance de l'estimation. À mesure que la taille de l'échantillon augmente, les barres d'erreur deviennent plus petites, offrant une plus grande confiance mais pas nécessairement une meilleure précision. Cependant, en utilisant le théorème central limite, l'utilisation d'un seul échantillon peut toujours fournir des informations précieuses, même si l'examen de plusieurs échantillons avec de grandes tailles d'échantillon peut être redondant.

  • 00: 25: 00 Dans cette section, la vidéo traite du troisième élément du théorème central limite, qui stipule que la variance des moyennes de l'échantillon sera proche de la variance de la population divisée par la taille de l'échantillon. Cela conduit au calcul de l'erreur type de la moyenne, qui est égale à l'écart type de la population divisé par la racine carrée de la taille de l'échantillon. La vidéo utilise un code pour tester si l'erreur type de la moyenne fonctionne et montre que l'écart type suit très bien l'erreur type, ce qui rend utile l'estimation de l'écart type en calculant l'erreur type. La différence entre l'écart type et l'erreur type est que pour calculer le premier, il faut examiner de nombreux échantillons, et pour le second, un seul échantillon est requis.

  • 00:30:00 Dans cette section, l'orateur aborde le concept d'erreur standard, qui est un moyen d'approximer l'écart type d'une population sans prendre plusieurs échantillons. La formule de l'erreur type inclut l'écart type de la population, mais cela n'est généralement pas connu car cela nécessiterait d'examiner l'ensemble de la population. Au lieu de cela, l'écart type de l'échantillon est souvent utilisé comme estimation. L'orateur démontre que pour des échantillons de plus grande taille, l'écart-type de l'échantillon est une approximation relativement précise de l'écart-type de la population. Cependant, il est à noter que cela peut ne pas toujours être vrai pour différents types de distributions et des populations plus importantes.

  • 00:35:00 Dans cette section, la vidéo traite de différentes distributions, y compris uniforme, normale ou gaussienne et exponentielle, et montre les approximations discrètes de ces distributions. La différence entre l'écart-type et l'écart-type de l'échantillon n'est pas la même pour toutes ces distributions, l'exponentielle étant le pire des cas. L'asymétrie, une mesure de l'asymétrie d'une distribution de probabilité, est un facteur important lorsqu'il s'agit de décider du nombre d'échantillons nécessaires pour estimer la population. De plus, la vidéo révèle une découverte contre-intuitive selon laquelle la taille de la population n'a pas d'importance pour déterminer le nombre d'échantillons nécessaires.

  • 00:40:00 Dans cette section, l'orateur discute de l'importance de choisir une taille d'échantillon appropriée pour estimer la moyenne d'une population à partir d'un seul échantillon. Il souligne que le choix de la bonne taille d'échantillon est essentiel pour obtenir une réponse précise et éviter l'utilisation d'une taille d'échantillon trop petite. Une fois qu'une taille d'échantillon est choisie, un échantillon aléatoire est prélevé dans la population pour calculer la moyenne et l'écart type de l'échantillon. À l'aide de l'erreur type estimée générée à partir de l'échantillon, des intervalles de confiance autour de la moyenne de l'échantillon sont générés. L'orateur avertit que cette méthode ne fonctionne que si des échantillons aléatoires indépendants sont choisis et montre comment le choix d'échantillons dépendants peut conduire à des résultats erronés. Enfin, il présente un exemple d'expérience pour calculer la fraction en dehors des intervalles de confiance de 95 % et souligne que cinq % est le résultat optimal.

  • 00:45:00 Dans cette section, l'orateur discute de l'importance de comprendre le concept d'erreur standard dans l'analyse statistique. Il souligne que si la réponse est trop bonne ou trop mauvaise, le calcul de probabilité est incorrect. Pour démontrer le fonctionnement de l'erreur standard, il exécute une simulation et montre que la fraction en dehors de l'intervalle de confiance de 95 % est très proche de la valeur attendue de 5 %. L'orateur conclut en insistant sur l'importance de l'erreur type et sur le fait qu'il s'agit d'un concept largement débattu entre différents départements.