Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vorlesung 26. Struktur neuronaler Netze für Deep Learning
26. Struktur neuronaler Netze für Deep Learning
Dieses Video behandelt die Struktur neuronaler Netze für Deep Learning. Das Ziel besteht darin, Daten binär zu klassifizieren, indem ein neuronales Netzwerk mit Merkmalsvektoren konstruiert wird, die m Merkmale aufweisen, wodurch eine Lernfunktion erstellt wird, die Daten als eine von zwei Kategorien klassifizieren kann. Nichtlinearität ist beim Erstellen dieser Funktionen unerlässlich, da lineare Klassifikatoren nicht in der Lage sind, nichtlineare Daten zu trennen. Das Video erörtert auch die Bedeutung der Anzahl von Gewichtungen und Schichten im neuronalen Netz und stellt Ressourcen wie den TensorFlow Playground bereit, mit denen Benutzer das Erstellen von Funktionen üben können. Schließlich diskutiert das Video die Rekursion, die verwendet wird, um die Formel für die Anzahl der flachen Stücke zu beweisen, die durch das Schneiden eines Kuchens erhalten werden, und wie sie sich auf das Optimierungsproblem der Minimierung des Gesamtverlusts beim Deep Learning bezieht.
Vorlesung 27. Backpropagation: Finde partielle Ableitungen
27. Backpropagation: Finde partielle Ableitungen
Dieses Video behandelt verschiedene Themen im Zusammenhang mit Backpropagation und der Suche nach partiellen Ableitungen. Der Referent demonstriert die Anwendung der Kettenregel für partielle Ableitungen und betont die Bedeutung der Rechenreihenfolge bei der Matrizenmultiplikation. Backpropagation wird als effizienter Algorithmus zur Berechnung von Gradienten hervorgehoben, und verschiedene Beispiele werden gegeben, um seine Wirksamkeit zu demonstrieren. Die Konvergenz des stochastischen Gradientenabstiegs wird kurz diskutiert, zusammen mit einer Projektidee, die sich auf die Verwendung einer zufälligen Reihenfolge von Verlustfunktionsabtastwerten beim stochastischen Gradientenabstieg bezieht. Insgesamt bietet das Video einen umfassenden Überblick über Backpropagation und seine Anwendungen.
Vorlesung 30: Vervollständigung einer Rang-Eins-Matrix, Zirkulanten!
Vorlesung 30: Vervollständigung einer Rang-Eins-Matrix, Zirkulanten!
In Vorlesung 30 geht der Dozent auf die Vervollständigung einer Rang-Eins-Matrix und zirkulanter Matrizen ein. Sie beginnen mit einer 2x2-Determinante und verwenden diese, um einzugrenzen, welche Werte in eine Matrix eingetragen werden können, um ihr Rang eins zu geben. Der Dozent geht dann auf ein kombinatorisches Problem für eine 4x4-Matrix ein und stellt zirkulante Matrizen vor, die zyklische Muster aufweisen, die mit nur vier gegebenen Zahlen erstellt werden können. Die Vorlesung behandelt auch zyklische Faltung, Eigenwerte und Eigenvektoren zirkulanter Matrizen, die in der Signalverarbeitung wichtig sind.
Vorlesung 31. Eigenvektoren zirkulanter Matrizen: Fourier-Matrix
31. Eigenvektoren zirkulanter Matrizen: Fourier-Matrix
In diesem Video zu Eigenvektoren zirkulanter Matrizen diskutiert der Referent, wie zirkulante Matrizen mit Bildverarbeitung und maschinellem Lernen zusammenhängen, sowie deren Verbindung zur Fourier-Matrix. Der Referent betont die Bedeutung des Verständnisses von Faltung und zirkulierenden Matrizen in Bezug auf die diskrete Fourier-Transformation (DFT) und Fourier-Transformationen. Der Referent erörtert die Eigenvektoren zirkulanter Matrizen, insbesondere der Fourier-Matrix, und wie sie alle aus demselben Satz von acht Zahlen aufgebaut sind, die auch die Eigenwerte sind. Der Referent spricht auch über die Eigenschaften der Fourier-Matrix, darunter, wie die Spalten orthogonal, aber nicht orthonormal sind, und wie sich ihre Eigenvektoren aufgrund der Symmetrie der Zirkulantenmatrix zu Null addieren und sie orthogonal zueinander machen. Abschließend demonstriert der Referent anhand von Beispielen das Konzept des Argan-Vektors als Eigenvektor der Fourier-Matrix.
Vorlesung 32: ImageNet ist ein Convolutional Neural Network (CNN), Die Faltungsregel
Vorlesung 32: ImageNet ist ein Convolutional Neural Network (CNN), Die Faltungsregel
In Vorlesung 32 eines Deep-Learning-Kurses wird die Leistungsfähigkeit von Convolutional Neural Networks (CNNs) bei der Bildklassifizierung am Beispiel des ImageNet-Wettbewerbs diskutiert, der von einem großen Deep-CNN mit Convolution Layers, Normal Layers und Max Pooling Layers gewonnen wurde. Weitere Schwerpunkte der Vorlesung sind die Faltungsregel, die Multiplikation und Faltung verbindet, mit Beispielen zweidimensionaler Faltungen, die Verwendung des Kronecker-Produkts für eine zweidimensionale Fourier-Transformation und in der Signalverarbeitung sowie der Unterschied zwischen periodisch und nicht periodisch Fälle in Bezug auf Faltung. Der Dozent geht auch auf Eigenvektoren und Eigenwerte einer Zirkulantenmatrix und die Kronecker-Summenoperation ein.
Vorlesung 33. Neuronale Netze und die Lernfunktion
33. Neuronale Netze und die Lernfunktion
In diesem Video diskutiert der Referent die Konstruktion der Lernfunktion f für neuronale Netze, die durch Gradientenabstieg oder stochastischen Gradientenabstieg optimiert und auf Trainingsdaten angewendet wird, um den Verlust zu minimieren. Er erklärt die Verwendung eines handgezeichneten Bildes zur Veranschaulichung des Konzepts neuronaler Netze und der Lernfunktion sowie verschiedener Verlustfunktionen, die beim maschinellen Lernen verwendet werden, einschließlich Kreuzentropieverlust. Der Referent spricht auch über das Problem, die Position von Punkten anhand ihrer Entfernungen zu finden, was ein klassisches Problem bei verschiedenen Anwendungen ist, beispielsweise bei der Bestimmung der Form von Molekülen mittels Kernspinresonanz. Er schließt mit einer Diskussion über die Konstruktion von X, dem letzten Schritt bei der Erlangung der Struktur eines neuronalen Netzes, und erwähnt einen Aufruf für Freiwillige, um am Freitag ein Projekt zu diskutieren.
Vorlesung 34. Distanzmatrizen, Procrustes-Problem
34. Distanzmatrizen, Procrustes-Problem
Der Referent diskutiert das Procrustes-Problem, bei dem es darum geht, die beste orthogonale Transformation zu finden, die einen Satz von Vektoren so nah wie möglich an einen anderen Satz von Vektoren heranführt. Sie erläutern verschiedene Ausdrücke zur Berechnung der Frobenius-Norm einer Distanzmatrix und deren Zusammenhang mit dem Procrustes-Problem. Der Referent führt auch in das Konzept der Spur von Matrizen ein und findet das richtige Q im Procrustes-Problem. Darüber hinaus gehen sie der Frage nach, ob Deep Learning tatsächlich funktioniert, und stellen die Lösung eines Matrixproblems vor, bei dem es darum geht, die beste orthogonale Matrix zu finden, bei der die SVD des Skalarprodukts zweier Matrizen berechnet und die orthogonalen Matrizen aus der SVD verwendet werden.
Vorlesung 35. Finden von Clustern in Graphen
35. Finden von Clustern in Graphen
In diesem Video wird das Clustering in Diagrammen und das Finden von Clustern mit verschiedenen Algorithmen wie K-Means und Spectral Clustering erläutert. Die Laplace-Matrix wird beim spektralen Clustering verwendet und kann durch ihre Eigenvektoren Informationen über Cluster im Diagramm liefern. Wichtig für das Clustering ist der Fiedler-Eigenvektor, also der Eigenvektor zum kleinsten positiven Eigenwert. Der Sprecher betont auch die Bedeutung von Eigenvektoren, die orthogonal sind, um unterschiedliche Cluster zu identifizieren. Außerdem gibt es eine kurze Vorschau auf die nächste Vorlesung, in der es um die Rückwärtsausbreitung mit Julia in der linearen Algebra geht. Studenten werden ermutigt, ihre Projekte online oder außerhalb des Büros des Dozenten einzureichen.
Vortrag 36: Alan Edelman und Julia Language
Vortrag 36: Alan Edelman und Julia Language
In diesem Video diskutiert Alan Edelman die Leistungsfähigkeit von Programmiersprachen für maschinelles Lernen und ihre Bedeutung in der Mathematik. Er hebt die jüngste Entwicklung der Julia-Sprache hervor, die von Google für ihre technischen Vorzüge und ihre Verwendbarkeit beim maschinellen Lernen anerkannt wurde. Edelman erklärt, wie die automatische Differenzierung in Julia funktioniert, und gibt ein Beispiel für die Berechnung der Quadratwurzel von x ohne Verwendung numerischer endlicher Differenzen durch den babylonischen Algorithmus. Er erörtert auch die Verwendung von Typen in Julia für eine effiziente Berechnung und die Vereinfachung des Backpropagation-Prozesses mit Blockmatrizen. Insgesamt betont Edelman die Bedeutung der linearen Algebra für mathematische Berechnungen und ihre Rolle beim Verständnis komplexer Phänomene.
MIT 6.172 Performance Engineering of Software Systems, Herbst 2018 - 1. Einführung und Matrixmultiplikation
1. Einführung und Matrixmultiplikation
In diesem YouTube-Video mit dem Titel "1. Introduction and Matrix Multiplication" diskutiert der Dozent die Bedeutung von Performance Engineering und wie es sich im Laufe der Zeit entwickelt hat. Am Beispiel der Matrizenmultiplikation zeigt der Referent, wie sich Codiertechniken und Maschinenspezifikationen stark auf die Performance auswirken können. Die Diskussion behandelt Themen wie Schleifenreihenfolge, Cache-Nutzung und parallele Programmierung. Der Referent untersucht auch Möglichkeiten, Code für verschiedene Prozessoren und arithmetische Berechnungen zu optimieren. Insgesamt bietet das Video wertvolle Einblicke in die Welt der Leistungstechnik und ihre praktischen Anwendungen in modernen Computersystemen.