Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Cours 11 : Minimiser ‖x‖ sous réserve de Ax = b
Conférence 11 : Minimiser ‖x‖ sous réserve de Ax = b
Dans cette conférence, le conférencier couvre une gamme de sujets liés à l'algèbre linéaire numérique. Ils commencent par discuter des problèmes qui peuvent survenir lors de la résolution de Ax = b, puis passent au processus de Gram-Schmidt pour trouver une base orthogonale pour un espace, et à la méthode de Gram-Schmidt modifiée pour minimiser "x" sous réserve de Ax = b . L'orateur introduit également le concept d'échange de colonnes ou de pivotement de colonnes dans un algorithme de Gram-Schmidt plus professionnel et discute d'une amélioration du processus standard de Gram-Schmidt pour orthonormaliser les colonnes d'une matrice A. Ils abordent également l'idée de l'espace de Krylov pour résoudre le problème Ax=b et l'importance d'avoir une bonne base pour minimiser ‖x‖ sous réserve de Ax = b. Enfin, ils mentionnent qu'ils en ont terminé avec le problème de la minimisation de x sous réserve de Ax=b et qu'ils passent à la question du traitement des très grandes matrices.
Cours 12. Calcul des valeurs propres et des valeurs singulières
12. Calcul des valeurs propres et des valeurs singulières
Dans cette vidéo, la méthode QR pour le calcul des valeurs propres et des valeurs singulières est introduite. Le processus consiste à commencer par la matrice souhaitée et à la factoriser en QR, en créant une matrice triangulaire supérieure R qui relie la base non orthogonale à la base orthogonale. Le processus est itéré jusqu'à ce que les entrées diagonales deviennent petites, auquel cas elles peuvent être utilisées pour approximer les valeurs propres. L'orateur discute également d'une méthode de décalage pour calculer les vecteurs propres afin d'accélérer le processus. Les avantages de l'utilisation de MATLAB pour les matrices symétriques sont également mis en évidence. La vidéo aborde également le concept de vecteurs de Krylov pour résoudre les problèmes de valeurs propres pour les grandes matrices.
Cours 13: Multiplication matricielle randomisée
Cours 13: Multiplication matricielle randomisée
Cette conférence vidéo traite du concept de multiplication matricielle aléatoire, qui consiste à échantillonner les colonnes de la matrice A et les lignes correspondantes de la matrice B avec des probabilités qui s'additionnent à un. La valeur moyenne des échantillons aléatoires peut être calculée pour obtenir la bonne réponse, mais il y aura toujours une variance. La conférence se poursuit par une discussion sur les concepts de moyenne et de variance et sur la manière de choisir les meilleures probabilités qui minimisent la variance. Le processus consiste à introduire une variable inconnue appelée Lambda et à prendre des dérivées par rapport à celle-ci pour trouver le meilleur PJ. L'attention se déplace ensuite vers la question de savoir comment pondérer les probabilités lorsque l'on regarde quelles colonnes d'une matrice sont plus grandes ou plus petites. L'enseignant propose deux possibilités : pondérer les probabilités selon la norme au carré ou mélanger les colonnes de la matrice et utiliser des probabilités égales. Dans l'ensemble, la vidéo fournit une explication détaillée de la multiplication matricielle aléatoire et du processus d'optimisation des probabilités pour obtenir la plus petite variance.
Cours 14. Changements de bas rang dans A et son inverse
14. Changements de bas rang dans A et son inverse
La vidéo traite du concept de matrices de rang inférieur et de leur importance dans les matrices de fonctions, en particulier la formule d'inversion de matrice qui trouve l'inverse d'une matrice N par n en termes d'une matrice 1 par 1 plus simple. La formule est utile pour trouver l'inverse des matrices qui ont des perturbations de rang faible et peut simplifier le processus de recherche des inverses. L'orateur montre comment la formule fonctionne en présentant la formule de la deuxième matrice et montre comment la même logique a été appliquée pour arriver à la réponse. La vidéo traite également des applications pratiques de cette formule, en particulier dans les problèmes des moindres carrés et le filtre de Kalman.
Cours 15. Matrices A(t) En fonction de t, Dérivée = dA/dt
15. Matrices A(t) En fonction de t, Dérivée = dA/dt
Cette vidéo couvre divers sujets liés aux matrices, y compris les changements dans les matrices et leur inverse, ainsi que les changements dans les valeurs propres et les valeurs singulières au fil du temps. L'orateur explique les formules clés pour calculer ces changements et souligne l'importance de comprendre le calcul différentiel en algèbre linéaire. De plus, la conférence discute de l'importance de la normalisation et explore les théorèmes d'entrelacement pour les valeurs propres dans les matrices symétriques et de rang 1. Enfin, la vidéo se termine par un examen des sujets abordés et une promesse de les développer dans de futures conférences.
possible, ils peuvent toujours dériver des inégalités pour comprendre l'ampleur du changement. Le cours couvre également la configuration de la matrice A, qui dépend du temps (T) et de l'inverse A inverse.
Cours 16. Dérivées des valeurs inverses et singulières
16. Dérivées des valeurs inverses et singulières
Cette vidéo couvre une variété de sujets, y compris la dérivée des valeurs inverses et singulières d'une matrice, l'entrelacement et la norme nucléaire d'une matrice. L'orateur présente une formule pour la dérivée des valeurs singulières, en utilisant le SVD, pour comprendre comment une matrice change au fil du temps, tout en établissant des limites pour les changements de valeurs propres dans les matrices symétriques. L'inégalité de Vial est introduite comme un moyen d'estimer les valeurs lambda d'une matrice, et la poursuite de base est utilisée dans les problèmes de complétion de matrice. L'orateur discute également de l'idée que la norme nucléaire d'une matrice provient d'une norme qui n'en est pas tout à fait une norme et introduit le concept de Lasso et de détection compressée qui sera discuté dans la prochaine leçon.
Cours 17 : Décroissance rapide des valeurs singulières
Cours 17 : Décroissance rapide des valeurs singulières
La conférence se concentre sur les matrices et leurs rangs, et sur la rapidité avec laquelle les valeurs singulières diminuent dans les mathématiques computationnelles. Le conférencier examine les matrices de rang inférieur et démontre comment elles ont beaucoup de zéros dans leur séquence de valeurs singulières, ce qui rend plus efficace l'envoi de la matrice à un ami sous forme de rang inférieur que sous forme de rang complet. Ils introduisent également le rang numérique d'une matrice, qui est défini en laissant une marge de manœuvre pour définir la tolérance des valeurs singulières d'une matrice. En échantillonnant des fonctions lisses, qui peuvent être bien approchées par des polynômes, le rang numérique peut être faible, ce qui entraîne une approximation de rang inférieur de la matrice X. Le cours comprend également des exemples de matrices gaussiennes et de Vandermonde pour expliquer comment elles peuvent conduire à matrices de faible rang, et discute de l'utilité des nombres de Zolotarev pour délimiter des valeurs singulières.
Cours 18 : Paramètres de comptage en SVD, LU, QR, points de selle
Cours 18 : Paramètres de comptage en SVD, LU, QR, points de selle
Dans cette conférence, l'orateur passe en revue diverses factorisations matricielles telles que L&U, Q&R et les matrices de vecteurs propres et compte le nombre de paramètres libres dans chacune de ces matrices. Ils discutent également du calcul de Qs par rapport à SVD et comptent le nombre de paramètres dans le SVD pour une matrice de rang-R. Le conférencier explique également le concept de points de selle dans les matrices et comment les trouver en utilisant des techniques d'optimisation et des multiplicateurs de Lagrange. Enfin, le conférencier discute du signe des valeurs propres d'une matrice symétrique et comment le quotient de Rayleigh peut aider à déterminer la valeur maximale et le vecteur propre correspondant de la matrice.
Cours 19. Suite des points de selle, principe Maxmin
19. Points de selle suite, principe Maxmin
Dans cette vidéo, l'orateur continue de discuter des points de selle et de la façon de trouver les valeurs minimales et maximales à l'aide du quotient de Rayleigh dans un espace bidimensionnel. Le théorème d'entrelacement est expliqué, ce qui implique d'écrire les points de selle comme le maximum d'un minimum pour trouver rapidement les maxima et les minima. L'orateur met également en garde contre le surajustement lors de l'ajustement des données avec un polynôme de haut degré et discute de deux laboratoires ouverts pour la classe, impliquant des points de selle et un réseau de neurones simple. Les concepts de moyenne et de variance dans les statistiques et la variance et la covariance de l'échantillon sont expliqués, l'orateur notant que la matrice de covariance pour les sorties totalement dépendantes ne serait pas inversible, et pour les scénarios de sondage avec plusieurs personnes vivant dans une maison, une certaine covariance est attendue mais pas tout à fait indépendant.
Cours 20. Définitions et inégalités
20. Définitions et inégalités
Dans cette section de la vidéo, le conférencier aborde divers concepts de la théorie des probabilités, notamment les matrices de valeur attendue, de variance et de covariance. L'inégalité de Markov et l'inégalité de Chebyshev ont également été introduites comme outils fondamentaux pour estimer les probabilités. L'orateur procède ensuite à l'explication de la relation entre l'inégalité de Markov et l'inégalité de Chebychev, illustrant comment elles conduisent au même résultat. Le concept de covariance et de matrice de covariance, un outil fondamental de la théorie des probabilités, a également été introduit. La vidéo explore également l'idée des probabilités et des tenseurs conjoints, expliquant comment le fait de coller des pièces ensemble ajoute de la dépendance et modifie les probabilités. Enfin, l'orateur discute des propriétés de la matrice de covariance, en soulignant qu'elle est toujours semi-définie positive et qu'elle est une combinaison de matrices semi-définies positives de rang 1.