Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Lektion 4: Praktisches Deep Learning für Programmierer 2022
Lektion 4: Praktisches Deep Learning für Programmierer 2022
In diesem Video wird erklärt, wie man ein Deep-Learning-Modell für den Coders 2022-Wettbewerb erstellt. Der Autor behandelt, wie Sie einen Validierungssatz erstellen, wie Sie Wettbewerbsdaten verwenden, um die Leistung Ihres Modells zu testen, und wie Sie eine Überanpassung in realen Umgebungen vermeiden. In diesem Video erklärt Jeremy, wie man den Pearson-Korrelationskoeffizienten verwendet, um die Beziehung zwischen zwei Variablen zu messen, und wie man mit Pytorch ein Modell trainiert, das sich wie ein fast.ai-Lerner verhält. Er erörtert auch ein Problem mit Vorhersagen, die von NLP-Techniken generiert werden, und wie es durch die Verwendung einer Sigmoidfunktion gelöst werden kann.
Lektion 5: Praktisches Deep Learning für Programmierer 2022
Lektion 5: Praktisches Deep Learning für Programmierer 2022
Dieses Video bietet ein Tutorial zum Erstellen und Trainieren eines linearen Modells mit Deep Learning. Das Video beginnt mit der Erörterung von direkten Operationen, die die Werte von Variablen innerhalb einer bestimmten Funktion ändern. Als Nächstes zeigt das Video, wie der Verlust für ein lineares Modell mit Rückwärtsgradientenabstieg berechnet wird. Schließlich stellt das Video eine Funktion bereit, die Koeffizienten innerhalb eines linearen Modells initialisiert und aktualisiert. Das Video schließt mit einer Demonstration, wie die Funktion ausgeführt und der Verlust gedruckt wird. In diesem Video wird erläutert, wie Sie die beste binäre Aufteilung für eine bestimmte Spalte in einem Datensatz berechnen. Dies ist besonders nützlich für Wettbewerbe zum maschinellen Lernen, da es ein Basismodell zum Vergleich bietet.
Lektion 6: Praktisches Deep Learning für Programmierer 2022
Lektion 6: Praktisches Deep Learning für Programmierer 2022
Dieses YouTube-Video bietet Programmierern eine Anleitung zum Einstieg in Deep Learning. Der Schwerpunkt liegt auf praktischem Deep Learning für Programmierer, mit Tipps, wie man einen Wettbewerb aufsetzt, ein Validierungsset erhält und schnell iteriert. Das Video erläutert auch die Bedeutung von Feature-Wichtigkeits- und Partial-Dependence-Plots sowie deren Erstellung mithilfe eines maschinellen Lernmodells.
Dieses Video bietet einen Überblick darüber, wie Sie mit Deep Learning die Genauigkeit von Codierungsprojekten verbessern können. Es erklärt, dass Datensätze oft eine Vielzahl von Eingabegrößen und Seitenverhältnissen haben können, was es schwierig macht, genaue Darstellungen mit Rechtecken zu erstellen. Es schlägt vor, stattdessen quadratische Darstellungen zu verwenden, die sich in den meisten Fällen als gut erwiesen haben.
Lektion 7: Praktisches Deep Learning für Programmierer 2022
Lektion 7: Praktisches Deep Learning für Programmierer 2022
In Lektion 7 von Praktisches Deep Learning für Programmierer 2022 erklärt Jeremy, wie Deep-Learning-Modelle skaliert werden können, indem der für größere Modelle benötigte Speicher reduziert wird. Er demonstriert einen Trick namens Gradientenakkumulation, bei dem die Gewichte nicht in jeder Schleife jedes Mini-Batchs aktualisiert werden, sondern alle paar Male, wodurch größere Batch-Größen verwendet werden können, ohne größere GPUs zu benötigen. Darüber hinaus erörtert Jeremy die k-fache Kreuzvalidierung und die Erstellung eines Deep-Learning-Modells, das sowohl die Reissorte als auch die im Bild vorhandene Krankheit mithilfe einer anderen Verlustfunktion, die als Kreuzentropieverlust bezeichnet wird, vorhersagt. Insgesamt bietet das Video praktische Tipps und Tricks zum Erstellen komplexerer Deep-Learning-Modelle.
In diesem Video untersucht der Referent die Erstellung von Empfehlungssystemen mit kollaborativer Filterung und Punktprodukt in PyTorch. Er beschreibt die Matrixmultiplikationsvorhersage von Filmbewertungen und berechnet die Verlustfunktion, ein Maß dafür, wie gut die vorhergesagten Bewertungen mit den tatsächlichen Bewertungen übereinstimmen. Er führt das Konzept der Einbettungen ein, das eine Beschleunigung von Matrixmultiplikatoren mit Dummy-Variablen ermöglicht. Der Referent erklärt dann, wie man der Matrix Bias und Regularisierung hinzufügt, um Benutzerbewertungen zu differenzieren und eine Überanpassung zu verhindern. Abschließend wird das Thema der Hyperparametersuche diskutiert, wobei die Notwendigkeit granularer Daten für genaue Empfehlungen betont wird. Insgesamt zerlegt das Video komplexe Deep-Learning-Konzepte, um ein praktisches Verständnis für die Zuschauer zu schaffen.
Lektion 8 – Praktisches Deep Learning für Programmierer 2022
Lektion 8 – Praktisches Deep Learning für Programmierer 2022
Dieses Video behandelt die Grundlagen des Deep Learning für Programmierer. Es erklärt, wie Parameter für Deep-Learning-Modelle mithilfe der Pytorch-Bibliothek erstellt werden, wie PCA verwendet wird, um die Anzahl der Faktoren in einem Datensatz zu reduzieren, und wie ein neuronales Netz verwendet wird, um den Auktionsverkaufspreis von industriellen Schwermaschinen vorherzusagen.
Dieses YouTube-Video bietet einen Überblick über Deep Learning für Programmierer. Der Referent erklärt, dass Hartnäckigkeit in diesem Bereich wichtig ist und rät, wer erfolgreich sein will, sollte weitermachen, bis etwas fertig ist. Er empfiehlt auch, anderen Anfängern auf forums.fast.ai zu helfen.
Lektion 9: Deep Learning Foundations to Stable Diffusion, 2022
Lektion 9: Deep Learning Foundations to Stable Diffusion, 2022
Dieses Video bietet eine Einführung in Deep Learning und erläutert, wie stabile Diffusionsmodelle funktionieren und wie sie angewendet werden können, um neue Bilder zu generieren. Das Video enthält eine Demonstration der Verwendung der Diffuser-Bibliothek zum Erstellen von Bildern, die wie handgeschriebene Ziffern aussehen. Es führt auch das Konzept der stabilen Diffusion ein, das eine Methode zum Trainieren neuronaler Netze ist. Die Grundidee besteht darin, die Eingaben in ein neuronales Netzwerk zu modifizieren, um die Ausgabe zu ändern. In diesem Video erläutert der Kursleiter, wie ein neuronales Netz erstellt wird, das in der Lage ist, handschriftliche Ziffern aus verrauschten Eingaben korrekt zu identifizieren. In diesem Video wird erläutert, wie Sie ein maschinelles Lernmodell mit einem Deep-Learning-Algorithmus trainieren. Das Modell wird mit einem Satz latenter Variablen (die die Daten darstellen) initialisiert und verwendet einen Decoder, um die Rohdaten zu verstehen. Als nächstes wird ein Textcodierer verwendet, um maschinenlesbare Beschriftungen für die Daten zu erstellen. Schließlich wird ein U-Net unter Verwendung der Beschriftungen als Eingabe trainiert, und die Gradienten (die "Bewertungsfunktion") werden verwendet, um die Rauschpegel in den Trainingsdaten anzupassen.
Herausforderungen beim Deep Learning (Dr. Razvan Pascanu – DeepMind)
Herausforderungen beim Deep Learning (Dr. Razvan Pascanu – DeepMind)
Dr. Razvan Pascanu von DeepMind diskutiert in diesem Video mehrere Herausforderungen beim Deep Learning. Er betont die Bedeutung der Anpassungsfähigkeit und der Verlagerung des Fokus von Leistungsmetriken und schlägt vor, dass die Einschränkungen der Rechenressourcen in Deep-Learning-Systemen tatsächlich von Vorteil sein können. Darüber hinaus untersucht er die Herausforderungen des kontinuierlichen Lernens und des damit verbundenen Teilgebiets des maschinellen Lernens, einschließlich des Einflusses von Größe und Architektur auf die Leistung von Deep-Learning-Modellen. Dr. Pascanu erörtert auch die Rolle des stochastischen Gradientenabstiegs, die Bedeutung expliziter Verzerrungen und das Konzept des Vortrainings und das Hinzufügen induktiver Verzerrungen in Deep-Learning-Modellen.
Dr. Razvan Pascanu von DeepMind diskutiert das Problem des Vergessens beim Deep Learning und wie sich Modelle davon erholen können. Obwohl etwas Wissen nach dem Vergessen noch vorhanden sein kann, ist es schwierig festzustellen, wie viele Informationen verloren gehen. Dr. Pascanu erwähnt, dass sich jüngste Arbeiten zum gezielten Vergessen auf den Datenschutz konzentriert haben, aber in diesem Bereich mehr Forschung und Konzentration erforderlich sind.
CS 198-126: Modern Computer Vision Herbst 2022 (University of California, Berkeley) Vorlesung 1 - Einführung in maschinelles Lernen
CS 198-126: Vorlesung 1 - Einführung in maschinelles Lernen
In dieser Vorlesung zum maschinellen Lernen behandelt der Dozent ein breites Themenspektrum, darunter eine Einführung in den Kurs, einen Überblick über maschinelles Lernen, verschiedene Arten von maschinellem Lernen, maschinelle Lernpipeline, Kennzeichnung von Daten und Verlustfunktion. Das Konzept des Bias-Varianz-Kompromisses, Overfitting und Underfitting wird ebenfalls diskutiert. Der Kursleiter betont die Bedeutung der Auswahl der richtigen Funktion während des Prozesses des maschinellen Lernens und die Rolle von Hyperparametern in diesem Prozess. Das übergeordnete Ziel des maschinellen Lernens besteht darin, neue Daten genau vorherzusagen und nicht nur die Trainingsdaten anzupassen. Der Dozent ermutigt die Studenten, den Kurs zu besuchen und sich zu bemühen, etwas über maschinelles Lernen und Deep Learning zu lernen.
CS 198-126: Vorlesung 2 - Einführung in Deep Learning, Teil 1
CS 198-126: Vorlesung 2 - Einführung in Deep Learning, Teil 1
In diesem YouTube-Vortrag zur Einführung in Deep Learning erörtert der Dozent die Grundlagen von Deep-Learning-Modellen und wie man sie mit Gradientenabstieg trainiert, behandelt verschiedene Bausteine für neuronale Netze und warum Deep Learning eine so weit verbreitete Technologie ist. Die Vorlesung stellt das Perzeptron und das Stapeln mehrerer Perzeptronen vor, um ein komplexeres und anspruchsvolleres neuronales Netzwerk zu erstellen, und erklärt, wie die Ausgabe durch Matrixmultiplikation und eine abschließende Addition berechnet wird, wobei die mittlere Schicht eine ReLU-Aktivierungsfunktion verwendet. Der Referent spricht die Verwendung der Softmax-Funktion und der ReLU-Aktivierungsfunktion an, wobei Verlustfunktionen als Metriken zur Bewertung der Leistung des Modells verwendet werden, sowie das Konzept der Gradientenabstiegsoptimierung. Abschließend erörtert der Kursleiter die Idee des Deep Learning und wie ein großes neuronales Netzwerk trotz seiner Fähigkeit, sich die Daten zu merken, zu geringen Verlusten führt. Außerdem stellt der Dozent das Konzept des Hyperparameter-Tunings in neuronalen Netzen vor, um deren Leistung mit bestimmten Datensätzen zu verbessern. Er stellt fest, dass es keine universellen Werte für Hyperparameter gibt, und schlägt vor, verschiedene Optionen wie Schichtnummern und Aktivierungsfunktionen zu untersuchen. Aus zeitlichen Gründen endet die Vorlesung abrupt, aber der Dozent versichert den Studierenden, dass das bevorstehende Quiz nicht allzu schwierig sein und auf der GreatScope-Plattform zugänglich sein wird.
CS 198-126: Vorlesung 3 - Einführung in Deep Learning, Teil 2
CS 198-126: Vorlesung 3 - Einführung in Deep Learning, Teil 2
In diesem Abschnitt der Vorlesung wird das Konzept der Backpropagation erklärt, das ein schneller Weg ist, um alle partiellen Ableitungen zu erhalten, die für den Gradientenabstiegsalgorithmus benötigt werden, ohne redundante Operationen durchzuführen. Der Dozent erörtert auch, wie Vanilla Gradient Descent für die Deep-Learning-Optimierung verbessert werden kann, und stellt Momentum, RMSprop und Adam als Optimierungsmethoden vor. Die Wichtigkeit, den Trainingsverlauf eines Modells zu verfolgen, die Verwendung von Batch-Normalisierung und Zusammenstellung als Technik zur Verbesserung der Modellleistung werden ebenfalls diskutiert, sowie Techniken, die häufig beim Deep Learning verwendet werden, um eine Überanpassung wie Dropout und Skip Connections zu verringern. Abschließend geht der Dozent kurz auf die Benutzerfreundlichkeit von PyTorch ein und öffnet das Wort für Fragen.