![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Cours 1: L'espace colonne de A contient tous les vecteurs Ax
Conférence 1: L'espace colonne de A contient tous les vecteurs Ax
Cette conférence se concentre sur le concept de l'espace colonne d'une matrice, qui est une collection de tous les vecteurs qui peuvent être obtenus en multipliant la matrice avec tous les vecteurs possibles. Le conférencier explique que l'espace des colonnes dépend de la matrice et pourrait être tout l'espace de R3 ou un sous-ensemble plus petit de celui-ci. Le professeur aborde en outre les concepts d'espacement des lignes, de rang de colonne et de rang de ligne, ainsi que la relation entre ces rangs. La conférence aborde également brièvement le premier grand théorème de l'algèbre linéaire, qui stipule que le rang de colonne d'une matrice est égal au rang de ligne de la matrice. De plus, le professeur discute des méthodes de multiplication matricielle et du nombre de multiplications requises pour le processus. Dans l'ensemble, la conférence offre une introduction à l'algèbre linéaire et à son importance dans l'apprentissage à partir de données.
Cours 2 : Multiplier et factoriser des matrices
Cours 2 : Multiplier et factoriser des matrices
Ce cours couvre les bases de la multiplication et de la factorisation des matrices. L'auteur explique comment les matrices ont des dimensions à la fois dans les espaces de ligne et de colonne, et comment l'espace de ligne a la dimension R tandis que l'espace nul a la dimension M moins R. La conférence traite également de la relation entre les lignes et les solutions d'une équation, ainsi que l'orthogonalité des vecteurs dans l'espace à deux dimensions. Enfin, l'auteur explique le théorème fondamental de l'algèbre linéaire, selon lequel les dimensions d'un espace ressortent au moment où la géométrie est élaborée.
Cours 3. Colonnes orthonormées en Q Donner Q'Q = I
3. Colonnes orthonormées dans Q Donner Q'Q = I
Cette section de la vidéo explique le concept de matrices orthogonales et leur signification en algèbre linéaire numérique. Le locuteur prouve que la longueur au carré de QX doit être la même que X transpose QX en utilisant le fait que Q transpose Q est égal à l'identité. La vidéo traite également de la construction de matrices orthogonales à l'aide de diverses méthodes telles que les matrices de Gordan et les matrices de Householder. L'importance et la construction des ondelettes sont également expliquées, ainsi que le concept d'utilisation de vecteurs propres orthogonaux dans le traitement du signal. Enfin, l'orateur explique comment tester des vecteurs orthogonaux avec des nombres complexes et mentionne que les matrices orthogonales ont des vecteurs propres orthogonaux avec des valeurs propres différentes.
Cours 4. Valeurs propres et vecteurs propres
4. Valeurs propres et vecteurs propres
Cette vidéo explique le concept de valeurs propres et de vecteurs propres, et comment ils peuvent être utilisés pour calculer des transformations linéaires. Il montre également comment les vecteurs propres peuvent être utilisés pour trouver des équations linéaires dans un système.
Cours 5. Matrices définies et semi-définies positives
5. Matrices définies et semi-définies positives
Dans cette vidéo, l'orateur résume les faits saillants des conférences précédentes en algèbre linéaire, y compris les valeurs propres, les déterminants et les pivots, qui fournissent tous des tests pour les matrices définies positives. L'orateur explique ensuite la relation entre les matrices positives définies et indéfinies, leur connexion aux valeurs propres et aux déterminants, et comment calculer l'énergie dans le vecteur X pour une matrice. Le conférencier aborde également les concepts d'apprentissage en profondeur, de réseaux de neurones, d'apprentissage automatique et de minimisation d'une énergie. Ils abordent le concept d'une fonction convexe et expliquent comment elle peut être utilisée dans l'apprentissage en profondeur. Enfin, l'orateur introduit des exercices pour les matrices définies et semi-définies positives et mentionne brièvement le sujet à venir de la décomposition en valeurs singulières.
Cours 6. Décomposition en valeurs singulières (SVD)
6. Décomposition en valeurs singulières (SVD)
Cette vidéo explique le concept de décomposition en valeurs singulières (SVD), qui est utilisé pour factoriser une matrice en trois matrices, où celle du milieu est diagonale et contient les valeurs singulières. Le SVD aide à comprendre la relation entre A, Sigma et V, aidant finalement à résoudre les équations. La vidéo traite de l'importance des vecteurs orthogonaux, des vecteurs propres et des valeurs propres dans SVD, et met l'accent sur l'orthogonalité des matrices A et V. La vidéo explique également la représentation graphique du processus SVD et la décomposition des pôles d'une matrice. Enfin, la vidéo traite du processus d'extraction de la partie la plus importante d'une grande matrice de données à l'aide de SVD.
Cours 7. Eckart-Young : La matrice de rang k la plus proche de A
7. Eckart-Young : la matrice de rang k la plus proche de A
Dans cette vidéo YouTube, le conférencier explique le concept d'analyse en composantes principales (ACP), qui est utilisé pour comprendre une matrice de données et en extraire des informations significatives. L'importance des k plus grandes valeurs singulières d'une matrice, qui contiennent les informations les plus cruciales, est mise en évidence, et le théorème d'Eckart-Young, qui stipule que les k premières pièces d'une décomposition en valeurs singulières fournissent la meilleure approximation d'une matrice de rang k , est introduit. L'orateur aborde également différents types de normes pour les vecteurs et les matrices, y compris les normes l2, l1 et l'infini. L'importance de la norme de Frobenius dans la compétition Netflix et les IRM est mise en évidence, ainsi que le concept de la matrice de rang k la plus proche de A. L'orateur discute également de l'utilisation de matrices orthogonales pour préserver les propriétés de la matrice d'origine et introduit le concept de la décomposition en valeurs singulières (SVD) et son lien avec l'ACP. Enfin, l'importance de résoudre un système linéaire d'équations impliquant la matrice rectangulaire A et sa transposition est discutée, ainsi que l'utilisation de la méthode SVD pour trouver le meilleur rapport âge/taille pour un ensemble de données donné.
Cours 8 : Normes des vecteurs et des matrices
Conférence 8 : Normes des vecteurs et des matrices
Cette conférence aborde le concept de normes de vecteurs et de matrices, y compris les normes L1 et max, et leur application dans des domaines tels que la détection de compression et le traitement du signal. La conférence couvre également l'importance de l'inégalité triangulaire dans les normes, la forme des normes s et la connexion entre la norme L2 des vecteurs et des matrices. De plus, la conférence explore la norme de Frobenius et la norme nucléaire, qui reste une conjecture pour optimiser les réseaux de neurones, et souligne l'importance de l'enseignement et de l'apprentissage aux côtés des étudiants.
Cours 9. Quatre façons de résoudre les problèmes des moindres carrés
9. Quatre façons de résoudre les problèmes des moindres carrés
Dans cette vidéo, l'instructeur discute du concept des moindres carrés et des différentes façons de l'aborder. Il souligne l'importance des moindres carrés, car c'est un problème essentiel en algèbre linéaire et sert de ciment qui maintient l'ensemble du cours ensemble. La vidéo couvre la pseudo-inverse des matrices, la SVD des matrices inversibles et non inversibles, et différentes méthodes pour résoudre les problèmes des moindres carrés, y compris le plan de Gauss et les colonnes orthogonales. La vidéo aborde également l'idée de minimiser la distance entre ax + b et les mesures réelles à l'aide de la norme L2 au carré et son lien avec la régression linéaire et les statistiques. De plus, la vidéo donne un aperçu d'un projet qui utilise le matériel appris dans le cours, en se concentrant sur des domaines tels que l'apprentissage automatique et l'apprentissage en profondeur.
Cours 10 : Enquête sur les difficultés avec Ax = b
Cours 10 : Enquête sur les difficultés avec Ax = b
Dans ce cours sur l'algèbre linéaire numérique, les difficultés de résolution d'équations linéaires de la forme Ax=b sont discutées. Ces difficultés surviennent lorsque la matrice A est presque singulière, ce qui rend son inverse déraisonnablement grand, et lorsque le problème est trop grand avec une matrice géante impossible à résoudre en un temps raisonnable. L'enseignant propose plusieurs possibilités de résolution du problème, allant du cas normal facile au cas extrêmement difficile des équations sous-déterminées. L'utilisation de l'algèbre linéaire aléatoire, des méthodes itératives et du SVD est discutée, ainsi que l'importance de trouver des solutions qui fonctionnent sur les données de test, en particulier avec l'apprentissage en profondeur. De plus, le conférencier souligne que le SVD reste le meilleur outil pour diagnostiquer les problèmes de matrice.