Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vorlesung 6. Singulärwertzerlegung (SVD)
6. Singulärwertzerlegung (SVD)
Dieses Video erklärt das Konzept der Singular Value Decomposition (SVD), das verwendet wird, um eine Matrix in drei Matrizen zu zerlegen, wobei die mittlere diagonal ist und die Singularwerte enthält. Die SVD hilft, die Beziehung zwischen A, Sigma und V zu verstehen und hilft letztendlich, Gleichungen zu lösen. Das Video erörtert die Bedeutung orthogonaler Vektoren, Eigenvektoren und Eigenwerte in SVD und betont die Orthogonalität von A- und V-Matrizen. Das Video erklärt auch die grafische Darstellung des SVD-Prozesses und die Polzerlegung einer Matrix. Schließlich diskutiert das Video den Prozess des Extrahierens des wichtigsten Teils einer großen Datenmatrix mit SVD.
Vorlesung 7. Eckart-Young: The Closest Rank k Matrix to A
7. Eckart-Young: Die nächste Rang-k-Matrix zu A
In diesem YouTube-Video erklärt der Dozent das Konzept der Hauptkomponentenanalyse (PCA), die verwendet wird, um eine Matrix von Daten zu verstehen und aussagekräftige Informationen daraus zu extrahieren. Die Bedeutung der größten k Einzelwerte einer Matrix, die die wichtigsten Informationen enthalten, wird hervorgehoben, und das Eckart-Young-Theorem, das besagt, dass die ersten k Teile einer Singulärwertzerlegung die beste Annäherung an eine Rang-k-Matrix liefern , ist vorgestellt. Der Referent diskutiert auch verschiedene Arten von Normen für Vektoren und Matrizen, einschließlich der l2-, l1- und Unendlichkeitsnormen. Die Bedeutung der Frobenius-Norm im Netflix-Wettbewerb und bei MRT-Scans wird hervorgehoben, zusammen mit dem Konzept der Rang-k-Matrix, die A am nächsten liegt. Der Referent diskutiert auch die Verwendung orthogonaler Matrizen zur Erhaltung der Eigenschaften der ursprünglichen Matrix und stellt das Konzept vor der Singular Value Decomposition (SVD) und wie sie sich auf PCA bezieht. Schließlich wird die Bedeutung der Lösung eines linearen Gleichungssystems mit der rechteckigen Matrix A und ihrer Transponierten diskutiert, zusammen mit der Verwendung der SVD-Methode, um das beste Verhältnis von Alter zu Größe für einen gegebenen Datensatz zu finden.
Vorlesung 8: Normen von Vektoren und Matrizen
Vorlesung 8: Normen von Vektoren und Matrizen
Diese Vorlesung behandelt das Konzept der Normen von Vektoren und Matrizen, einschließlich L1- und Max-Normen, und ihre Anwendung in Bereichen wie Kompressionserkennung und Signalverarbeitung. Die Vorlesung behandelt auch die Bedeutung der Dreiecksungleichung in Normen, die Form von S-Normen und den Zusammenhang zwischen der L2-Norm von Vektoren und Matrizen. Darüber hinaus befasst sich die Vorlesung mit der Frobenius-Norm und der Nuklearnorm, die eine Vermutung zur Optimierung neuronaler Netze bleibt, und betont die Bedeutung des Lehrens und Lernens mit Studenten.
Vorlesung 9. Vier Wege zur Lösung von Kleinste-Quadrate-Problemen
9. Vier Wege zur Lösung von Kleinste-Quadrate-Problemen
In diesem Video erläutert der Kursleiter das Konzept der kleinsten Quadrate und verschiedene Vorgehensweisen. Er betont die Bedeutung der kleinsten Quadrate, da sie ein wesentliches Problem der linearen Algebra darstellen und als Kitt dienen, der den gesamten Kurs zusammenhält. Das Video behandelt die Pseudo-Inverse von Matrizen, SVD von invertierbaren und nicht-invertierbaren Matrizen und verschiedene Methoden zur Lösung von Problemen der kleinsten Quadrate, einschließlich des Gauß-Plans und orthogonaler Spalten. Das Video diskutiert auch die Idee, den Abstand zwischen ax + b und den tatsächlichen Messungen unter Verwendung des L2-Normquadrats zu minimieren und wie dies mit linearer Regression und Statistik zusammenhängt. Darüber hinaus bietet das Video Einblicke in ein Projekt, das das im Kurs gelernte Material verwendet und sich auf Bereiche wie maschinelles Lernen und Deep Learning konzentriert.
Vorlesung 10: Übersicht über Schwierigkeiten mit Ax = b
Vorlesung 10: Übersicht über Schwierigkeiten mit Ax = b
In dieser Vorlesung zur numerischen linearen Algebra werden die Schwierigkeiten bei der Lösung linearer Gleichungen der Form Ax=b besprochen. Diese Schwierigkeiten treten auf, wenn die Matrix A nahezu singulär ist, was ihre Inverse unangemessen groß macht, und wenn das Problem mit einer riesigen Matrix zu groß ist, die in einer machbaren Zeit nicht zu lösen ist. Der Dozent skizziert mehrere Möglichkeiten zur Lösung des Problems, die vom einfachen Normalfall bis zum extrem schwierigen Fall unterbestimmter Gleichungen reichen. Die Verwendung von randomisierter linearer Algebra, iterativen Methoden und der SVD werden diskutiert, zusammen mit der Wichtigkeit, Lösungen zu finden, die auf Testdaten funktionieren, insbesondere mit Deep Learning. Darüber hinaus betont der Dozent, dass die SVD immer noch das beste Werkzeug zur Diagnose von Matrixproblemen ist.
Vorlesung 11: Minimierung von ‖x‖ Vorbehaltlich Ax = b
Vorlesung 11: Minimierung von ‖x‖ Vorbehaltlich Ax = b
In dieser Vorlesung behandelt der Referent eine Reihe von Themen rund um die numerische lineare Algebra. Sie beginnen mit der Diskussion der Probleme, die beim Lösen nach Ax=b auftreten können, und gehen dann zum Gram-Schmidt-Prozess zum Finden einer orthogonalen Basis für einen Raum und zum modifizierten Gram-Schmidt-Verfahren zum Minimieren von „x“ in Abhängigkeit von Ax = b über . Der Referent führt auch das Konzept des Spaltenaustauschs oder Spaltenschwenkens in einem professionelleren Gram-Schmidt-Algorithmus ein und diskutiert eine Verbesserung des Standard-Gram-Schmidt-Verfahrens zur Orthonormalisierung der Spalten einer Matrix A. Sie berühren auch die Idee des Krylov-Raums um das Problem Ax=b zu lösen und die Wichtigkeit, eine gute Grundlage für die Minimierung von „x“ unter Berücksichtigung von Ax = b zu haben. Abschließend erwähnen sie, dass sie das Problem der Minimierung von x unter Berücksichtigung von Ax=b abgeschlossen haben und sich nun dem Problem des Umgangs mit sehr großen Matrizen zuwenden.
Vorlesung 12. Berechnung von Eigenwerten und singulären Werten
12. Berechnung von Eigenwerten und singulären Werten
In diesem Video wird das QR-Verfahren zur Berechnung von Eigenwerten und Singulärwerten vorgestellt. Der Prozess beinhaltet, mit der gewünschten Matrix zu beginnen und sie in QR zu faktorisieren, wodurch eine obere Dreiecksmatrix R erstellt wird, die die nicht-orthogonale Basis mit der orthogonalen Basis verbindet. Der Prozess wird iteriert, bis die diagonalen Einträge klein werden, an welchem Punkt sie verwendet werden können, um die Eigenwerte zu approximieren. Der Sprecher erörtert auch ein Verschiebungsverfahren zum Berechnen von Eigenvektoren, um den Prozess zu beschleunigen. Die Vorteile der Verwendung von MATLAB für symmetrische Matrizen werden ebenfalls hervorgehoben. Das Video berührt auch das Konzept der Krylov-Vektoren zur Lösung von Eigenwertproblemen für große Matrizen.
Vorlesung 13: Randomisierte Matrixmultiplikation
Vorlesung 13: Randomisierte Matrixmultiplikation
Dieser Videovortrag behandelt das Konzept der randomisierten Matrixmultiplikation, bei der die Spalten der Matrix A und die entsprechenden Zeilen der Matrix B mit Wahrscheinlichkeiten abgetastet werden, die sich zu eins addieren. Der Mittelwert der Stichproben kann berechnet werden, um die richtige Antwort zu erhalten, aber es wird immer noch Varianz geben. Die Vorlesung geht weiter auf die Konzepte von Mittelwert und Varianz ein und wie man die besten Wahrscheinlichkeiten auswählt, die die Varianz minimieren. Der Prozess beinhaltet die Einführung einer unbekannten Variablen namens Lambda und die Ableitung davon, um den besten PJ zu finden. Der Fokus verschiebt sich dann auf die Frage, wie man die Wahrscheinlichkeiten gewichtet, wenn man sich anschaut, welche Spalten in einer Matrix größer oder kleiner sind. Der Dozent schlägt zwei Möglichkeiten vor: Wahrscheinlichkeiten nach der Norm zum Quadrat gewichten oder die Spalten der Matrix mischen und gleiche Wahrscheinlichkeiten verwenden. Insgesamt bietet das Video eine detaillierte Erklärung der randomisierten Matrixmultiplikation und des Prozesses zur Optimierung von Wahrscheinlichkeiten, um die kleinste Varianz zu erhalten.
Vorlesung 14. Niedrige Rangänderungen in A und sein Inverses
14. Niedrige Rangänderungen in A und seiner Inversen
Das Video diskutiert das Konzept von Matrizen mit niedrigem Rang und ihre Bedeutung in Funktionsmatrizen, insbesondere die Matrixinversionsformel, die die Inverse einer N-mal-n-Matrix in Bezug auf eine einfachere 1-mal-1-Matrix findet. Die Formel ist nützlich, um das Inverse von Matrizen zu finden, die Störungen mit niedrigem Rang aufweisen, und kann den Prozess des Findens von Inversen vereinfachen. Der Referent zeigt, wie die Formel funktioniert, indem er die Formel für die zweite Matrix vorstellt und zeigt, wie dieselbe Logik angewendet wurde, um zu der Antwort zu gelangen. Das Video diskutiert auch praktische Anwendungen dieser Formel, insbesondere bei Problemen der kleinsten Quadrate und dem Kalman-Filter.
Vorlesung 15. Matrizen A(t) Abhängig von t, Ableitung = dA/dt
15. Matrizen A(t) Abhängig von t, Ableitung = dA/dt
Dieses Video behandelt verschiedene Themen im Zusammenhang mit Matrizen, einschließlich Änderungen in Matrizen und ihrer Inversen sowie Änderungen in Eigenwerten und singulären Werten im Laufe der Zeit. Der Referent erläutert Schlüsselformeln zur Berechnung dieser Änderungen und betont die Bedeutung des Verständnisses der Analysis in der linearen Algebra. Darüber hinaus diskutiert die Vorlesung die Bedeutung der Normalisierung und untersucht Interlacing-Theoreme für Eigenwerte sowohl in symmetrischen als auch in Rang-1-Matrizen. Abschließend schließt das Video mit einem Rückblick auf die behandelten Themen und dem Versprechen, diese in zukünftigen Vorlesungen zu vertiefen.
möglich, können sie dennoch Ungleichheiten ableiten, um zu verstehen, wie groß die Veränderung sein könnte. Die Vorlesung behandelt auch den Aufbau der Matrix A, die von der Zeit (T) und der Inversen A-Inversen abhängt.