Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
MIT 6.S192 - Vorlesung 21: Zwischen Kunst, Geist und Maschinen, Sarah Schwetmann
MIT 6.S192 - Vorlesung 21: Zwischen Kunst, Geist und Maschinen, Sarah Schwetmann
In diesem Vortrag diskutiert Sarah Schwetmann die Schnittmenge von Kunst, Geist und Maschinen. Es befasst sich mit der visuellen Wahrnehmung und der Herausforderung, eine reichhaltige 3D-Welt durch eine 2D-Leinwand wahrzunehmen, die das Gehirn erfordert, um das umgekehrte Problem zu lösen und die bestmögliche Erklärung für die eingehenden Informationen zu finden. Schwettmann spricht auch über Projekte mit tiefen generativen Modellen, die an Kunstwerken trainiert wurden, wie z. B. die Verwendung von GAN-Inversion zum Einbetten von Bildern der Met-Sammlung in den Funktionsraum des Basismodells, um die Struktur menschlicher Kreativität zu verstehen, und das Erstellen eines Vokabulars visueller Konzepte für ein willkürlichen latenten GAN-Raum durch Abtasten des Raums wahrnehmbarer oder möglicher Transformationen und Verwenden dieser Auswahl von Richtungen als Projektionsfläche für Urteile über die menschliche Wahrnehmung. Menschliche Interaktion und Kennzeichnung sind in diesem Prozess wichtig, und das resultierende Vokabular kann auf andere Modelle angewendet und für verschiedene Bildmanipulationen verwendet werden. Trotz des Rauschens in den Daten aufgrund unterschiedlicher Wortwahlen kann ihre Wörterbuchdestillationsmethode unter Verwendung einer Anmerkungsbibliothek beliebiger Größe skaliert werden und kann das Training des Untertitelautors beinhalten, um Anweisungen automatisch zu kennzeichnen.
Sarah Schwetmann diskutiert auch verschiedene Möglichkeiten, die Bedeutung von Richtungen innerhalb von Modellen zu erforschen und zu bestimmen, die auf menschliche Kreativität trainiert wurden. Es präsentiert ein Experiment zum Erfassen und Lernen visueller Hinweise ohne Sprache, das es Menschen ermöglicht, die gewünschte Transformation rein visuell zu bestimmen, indem sie mit einer kleinen Gruppe von Bildern interagieren, die aus dem latenten oder Merkmalsraum ausgewählt werden. Diese Technik ist nützlich, um Bilder mit schwer zu erklärenden Nuancen zu kennzeichnen und zu verstehen. Darüber hinaus kann der verborgene Raum zu einer Leinwand werden, auf die menschliche Erfahrungen projiziert werden können, wodurch Forscher Aspekte der menschlichen Wahrnehmung besser verstehen können, die ansonsten schwer zu formalisieren sind.
MIT 6.S192 - Vorlesung 22: Probabilistische Diffusionsmodelle, Jascha Sol-Dickstein
MIT 6.S192 - Vorlesung 22: Probabilistische Diffusionsmodelle, Jascha Sol-Dickstein
In diesem Vortrag diskutiert Jascha Sol-Dickstein Diffusionsmodelle, die verwendet werden, um Aufgaben getrennt von Trainingsdaten zu trainieren. Modelle sind probabilistisch und können zum Codieren oder Decodieren von Daten verwendet werden. Der Vorwärtsdiffusionsprozess ist ein fester Prozess und der umgekehrte Prozess ist ebenfalls wahr.
Dieser Vortrag befasst sich mit probabilistischen Diffusionsmodellen und erklärt, dass es trotz der Eins-zu-Eins-Übereinstimmung zwischen dem latenten Raum und dem Bildraum möglich ist, mit mehreren Klassen innerhalb desselben Modells zu arbeiten. Der Vortrag erklärt dann, wie man diese Modelle verwendet, um neue Bilder zu erstellen.
GenRep: Generative Modelle als Datenquelle für das Lernen von Multiview-Repräsentationen in ICLR2022
Code: https://github.com/ali-design/GenRep
GenRep: Generative Modelle als Datenquelle für das Lernen von Multiview-Repräsentationen in ICLR2022
Die Referenten diskutieren das Konzept von Modellzoos, in denen vortrainierte generative Modelle ohne Zugriff auf die zugrunde liegenden Daten zugänglich gemacht werden. Durch die Verwendung von kontrastivem Lernen können Forscher verschiedene Ansichten desselben Objekts erstellen, die innerhalb des Darstellungsraums in dieselbe Nachbarschaft fallen. Sie fanden heraus, dass einfache Gaußsche Transformationen im latenten Raum effektiv waren und dass die Generierung von mehr Samples aus IGMs zu besseren Darstellungen führt. Experten-IGMs wie StyleGAN Car in bestimmten Bereichen können aus echten Daten gelernte Darstellungen übertreffen. Die Projektwebsite und der Github-Code stehen für weitere Erkundungen zur Verfügung.
Ein Interview mit Gilbert Strang über das Lehren von Matrixmethoden in Datenanalyse, Signalverarbeitung und maschinellem Lernen
Ein Interview mit Gilbert Strang über das Lehren von Matrixmethoden in Datenanalyse, Signalverarbeitung und maschinellem Lernen
Gilbert Strang, ein renommierter Mathematiker, betont die Bedeutung von Projekten gegenüber Prüfungen beim Unterrichten von Deep Learning, einem entscheidenden Teil des maschinellen Lernens, der sich stark auf lineare Algebra stützt. Er glaubt, dass Projekte es den Schülern ermöglichen, zu verstehen, wie man Deep Learning in der realen Welt anwendet, und dass sie eine effektivere Art des Lernens sind. Strang betont auch, dass es beim Unterrichten um das Lernen und Arbeiten mit den Schülern geht und nicht nur darum, sie zu benoten. Er rät neuen Professoren, große Kreide zu verwenden und sich Zeit zu nehmen, um bei der Klasse zu bleiben, um erfolgreich zu unterrichten.
MIT18.065. Matrixmethoden in Datenanalyse, Signalverarbeitung und maschinellem Lernen
Kurseinführung von Professor Strang
Professor Strang stellt seinen neuen Kurs 18.065 vor, der vier Schlüsselthemen abdeckt: Lineare Algebra, Deep Learning, Optimierung und Statistik. Der Kurs konzentriert sich auf die besten Matrizen, symmetrische und orthogonale Matrizen und ihre Beziehung zur linearen Algebra. Es wird auch Deep Learning behandeln, das die Grundlage der linearen Algebra bildet und komplexe Berechnungen beinhaltet, die den Einsatz von GPUs über Tage oder sogar Wochen erfordern können. Der Kurs behandelt Statistik, die eine Rolle dabei spielt, die Zahlen in der Lernfunktion in einem guten Bereich zu halten, und Optimierung und Wahrscheinlichkeitstheorie, die für Lernalgorithmen wichtig sind, und Differentialgleichungen, die eine Schlüsselrolle in naturwissenschaftlichen und technischen Anwendungen spielen . Der Kurs beinhaltet Übungen, Probleme und Diskussionen, um eine vollständige Präsentation des Themas zu ermöglichen.
Vorlesung 1: Der Spaltenraum von A enthält alle Vektoren Ax
Vorlesung 1: Der Spaltenraum von A enthält alle Vektoren Ax
Diese Vorlesung konzentriert sich auf das Konzept des Spaltenraums einer Matrix, die eine Sammlung aller Vektoren ist, die durch Multiplikation der Matrix mit allen möglichen Vektoren erhalten werden können. Der Dozent erklärt, dass der Spaltenraum von der Matrix abhängt und der gesamte Raum von R3 oder eine kleinere Teilmenge davon sein könnte. Der Professor erörtert ferner die Konzepte von Zeilenabstand, Spaltenrang und Zeilenrang sowie die Beziehung zwischen diesen Rängen. Die Vorlesung berührt auch kurz den ersten großen Satz der linearen Algebra, der besagt, dass der Spaltenrang einer Matrix gleich dem Zeilenrang der Matrix ist. Darüber hinaus erläutert der Professor Methoden zur Matrixmultiplikation und die Anzahl der für den Prozess erforderlichen Multiplikationen. Insgesamt bietet die Vorlesung eine Einführung in die lineare Algebra und ihre Bedeutung für das Lernen aus Daten.
Vorlesung 2: Matrizen multiplizieren und faktorisieren
Vorlesung 2: Matrizen multiplizieren und faktorisieren
Diese Vorlesung behandelt die Grundlagen der Multiplikation und Faktorisierung von Matrizen. Der Autor erklärt, wie Matrizen sowohl im Zeilen- als auch im Spaltenraum Dimensionen haben und wie der Zeilenraum die Dimension R hat, während der Nullraum die Dimension M minus R hat. Die Vorlesung behandelt auch die Beziehung zwischen Zeilen und Lösungen einer Gleichung sowie die Orthogonalität von Vektoren im zweidimensionalen Raum. Abschließend erläutert der Autor den fundamentalen Satz der linearen Algebra, der besagt, dass die Dimensionen eines Raums richtig herauskommen, wenn die Geometrie ausgearbeitet wird.
Vorlesung 3. Orthonormale Säulen in Q Gebe Q'Q = I
3. Orthonormale Säulen in Q Geben Sie Q'Q = I
Dieser Abschnitt des Videos erklärt das Konzept orthogonaler Matrizen und ihre Bedeutung in der numerischen linearen Algebra. Der Sprecher beweist, dass die Länge zum Quadrat von QX gleich sein muss wie X transponiert QX, indem er die Tatsache verwendet, dass Q transponiert Q gleich der Identität ist. Das Video erläutert auch die Konstruktion orthogonaler Matrizen mit verschiedenen Methoden wie Gordan-Matrizen und Householder-Matrizen. Die Bedeutung und Konstruktion von Wavelets wird ebenfalls erklärt, zusammen mit dem Konzept der Verwendung orthogonaler Eigenvektoren in der Signalverarbeitung. Abschließend spricht der Referent darüber, wie man orthogonale Vektoren mit komplexen Zahlen testet und erwähnt, dass orthogonale Matrizen orthogonale Eigenvektoren mit unterschiedlichen Eigenwerten haben.
Vorlesung 4. Eigenwerte und Eigenvektoren
4. Eigenwerte und Eigenvektoren
Dieses Video erklärt das Konzept von Eigenwerten und Eigenvektoren und wie sie zur Berechnung linearer Transformationen verwendet werden können. Außerdem wird gezeigt, wie Eigenvektoren verwendet werden können, um lineare Gleichungen in einem System zu finden.
Vorlesung 5. Positiv definite und semidefinite Matrizen
5. Positiv definite und semidefinite Matrizen
In diesem Video fasst der Referent die Highlights aus den vorherigen Vorlesungen in linearer Algebra zusammen, einschließlich Eigenwerte, Determinanten und Pivots, die alle Tests für positiv definite Matrizen bieten. Anschließend erklärt der Referent die Beziehung zwischen positiv definiten und unbestimmten Matrizen, deren Verbindung zu Eigenwerten und Determinanten und wie man die Energie im Vektor X für eine Matrix berechnet. Der Referent diskutiert auch die Konzepte von Deep Learning, neuronalen Netzen, maschinellem Lernen und Energieminimierung. Sie berühren das Konzept einer konvexen Funktion und erklären, wie sie beim Deep Learning verwendet werden kann. Abschließend stellt der Referent Übungen zu positiv definiten und semidefiniten Matrizen vor und geht kurz auf das kommende Thema der Singulärwertzerlegung ein.