Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vorlesung 11. Einführung in maschinelles Lernen
11. Einführung in maschinelles Lernen
Das Video erläutert das Konzept des maschinellen Lernens, seine Funktionsweise und zwei gängige Vorgehensweisen – überwachtes und unüberwachtes Lernen. Anschließend wird ein Beispiel für überwachtes Lernen gezeigt, bei dem eine Maschine trainiert wird, um die Position neuer Fußballspieler anhand ihrer Größe und ihres Gewichts vorherzusagen.
Vorlesung 12. Clustering
12. Clusterbildung
Dieses Video gibt einen Überblick über das Konzept der Gruppierung von Datenpunkten in Gruppen. Es erklärt, wie Clustering mit dem k-Means-Algorithmus durchgeführt wird und wie der Algorithmus auf Geschwindigkeit optimiert wird. Außerdem wird erläutert, wie Clustering verwendet wird, um Probleme mit Daten zu diagnostizieren.
Vorlesung 13. Klassifikation
13. Klassifizierung
Dieses Video behandelt verschiedene Klassifizierungsmethoden, darunter nächster Nachbar, K-nächster Nachbar (KNN) und logistische Regression. Der Moderator demonstriert KNN anhand von Beispielen zur Tierklassifikation und Handschrifterkennung und erklärt, wie es verrauschte Daten vermeidet, um zuverlässigere Ergebnisse zu liefern. Sie stellen den Titanic-Datensatz vor und erklären, wie wichtig es ist, das richtige Gleichgewicht zu finden, wenn Metriken wie Sensitivität und Spezifität verwendet werden, um die Leistung eines Klassifizierungsmodells zu bewerten. Darüber hinaus erläutert das Video zwei Testmethoden, Leave-one-out und Repeated Random Subsampling, und wie man sie auf die KNN-Klassifizierung anwendet. Abschließend erklärt der Referent, warum die logistische Regression gegenüber der linearen Regression für Klassifizierungsprobleme bevorzugt wird, und hebt ihre Fähigkeit hervor, verschiedenen Variablen unterschiedliche Gewichtungen zuzuweisen und Einblicke in Variablen durch Merkmalsgewichtungen zu gewähren.
Vorlesung 14. Klassifikation und statistische Sünden
14. Klassifikation und statistische Sünden
In diesem YouTube-Video werden verschiedene Klassifikations- und Statistiksünden diskutiert, die zu falschen Schlussfolgerungen führen können. Eine wichtige Erkenntnis ist, wie wichtig es ist, die Erkenntnisse zu verstehen, die aus der Untersuchung von Modellen für maschinelles Lernen gewonnen werden können, da die Interpretation der Gewichtungen von Variablen in der logistischen Regression irreführend sein kann, insbesondere wenn Merkmale korrelieren. Das Video betont auch, wie wichtig es ist, die Leistung von Klassifikatoren anhand der Fläche unter der Receiver Operating Characteristic (AUROC)-Kurve zu bewerten und der Versuchung zu widerstehen, Zahlen zu missbrauchen. Darüber hinaus wird hervorgehoben, wie wichtig es ist, Daten zu prüfen und nicht repräsentative Stichproben zu vermeiden, da diese zu statistischen Sünden wie Garbage In, Garbage Out (GIGO) und Survivor Bias führen können.
MIT 6.0002 Introduction to Computational Thinking and Data Science, Herbst 2016. Vorlesung 15. Statistical Sins and Wrap Up
15. Statistische Sünden und Zusammenfassung
In diesem Video diskutiert John Guttag die drei Haupttypen statistischer Sünden und liefert ein Beispiel dafür, wie jede davon zu falschen Schlussfolgerungen führen kann. Er fordert die Schüler auf, sich der Art der Daten bewusst zu sein, die sie betrachten, und ein angemessenes Intervall zu verwenden, um sicherzustellen, dass ihre Schlussfolgerungen korrekt sind.
Deep Learning Crashkurs für Anfänger
Deep Learning Crashkurs für Anfänger
Dieses Video bietet einen Crashkurs zum Thema Deep Learning mit Schwerpunkt auf überwachten und nicht überwachten Lernalgorithmen. Es behandelt die Schlüsselkonzepte jedes Ansatzes, einschließlich Modell, Status, Belohnung, Richtlinie und Wert. Der Hauptnachteil von Deep-Learning-Modellen besteht darin, dass sie zu stark an die Trainingsdaten angepasst werden können, was zu einer schlechten Verallgemeinerung führt. Techniken zur Bekämpfung von Overfitting werden diskutiert, einschließlich Dropout und Datensatzerweiterung. Dieser Einführungskurs zu Deep Learning bietet einen allgemeinen Überblick über das Thema und hebt die Bedeutung von neuronalen Netzen und Dropout hervor. Es erklärt auch, wie Overfitting reduziert werden kann, indem man die Grundlagen des Deep Learning versteht.
Wie tiefe neuronale Netze funktionieren - Vollständiger Kurs für Anfänger
Wie tiefe neuronale Netze funktionieren - Vollständiger Kurs für Anfänger
00:00:00 - 01:00:00 Das Video „How Deep Neural Networks Work – Full Course for Beginners“ bietet eine umfassende Erklärung der Funktionsweise neuronaler Netzwerke, von einfachen linearen Regressionsgleichungen bis hin zu komplexen konvolutionellen neuronalen Netzwerken, die in der Bilderkennung verwendet werden. Der Kursleiter verwendet Beispiele und visuelle Hilfsmittel, um die Funktionsweise neuronaler Netze zu erklären, einschließlich der Art und Weise, wie Knotenschichten gewichtete Summen und Squashs ausführen, um Ausgaben zu erzeugen, den Prozess der Backpropagation, um Gewichtungen anzupassen und Fehler zu minimieren, und das Konzept von Convolutional Neural Networks, um Muster zu erkennen in Bildern. Das Video behandelt auch Themen wie Logistikfunktionen, mehrschichtige Perzeptrone und die Verwendung mehrerer Ausgabefunktionen zum Erstellen von Klassifikatoren.
01:00:00 - 02:00:00 Der Kurs zur Funktionsweise tiefer neuronaler Netze für Anfänger behandelt verschiedene Themen im Zusammenhang mit der Funktionsweise neuronaler Netze. Der Kursleiter diskutiert Faltung, Pooling und Normalisierung und wie sie zu einem tiefen neuronalen Netzwerk gestapelt werden. Backpropagation wird auch als ein Prozess erklärt, der verwendet wird, um die Gewichtungen des Netzwerks zur Fehlerreduzierung anzupassen. Der Kurs behandelt auch die Verwendung von Vektoren, Gating, Squashing-Funktionen und rekurrenten neuronalen Netzen bei der Sequenz-zu-Sequenz-Übersetzung. Der Kursleiter liefert Beispiele dafür, wie LSTM-Netzwerke das nächste Wort in einem Satz vorhersagen und wie sie in Robotersystemen nützlich sind, indem sie Muster im Laufe der Zeit identifizieren. Schließlich erklärt das Video, wie neuronale Netze mithilfe von Gradientenabstieg mit Backpropagation trainiert werden, um die Gewichte anzupassen und Fehler zu reduzieren.
02:00:00 - 03:00:00 Das Video „How Deep Neural Networks Work – Full Course for Beginners“ diskutiert die Leistung von neuronalen Netzwerken in verschiedenen Szenarien und vergleicht sie mit menschlicher Intelligenz. Der Dozent stellt eine wissenschaftliche Definition von Intelligenz als die Fähigkeit vor, viele Dinge gut zu machen, und vergleicht die Leistung und Allgemeingültigkeit von Maschinen und Menschen auf einer logarithmischen Skala. Das Video behandelt Themen wie die Einschränkungen von Convolutional Neural Networks bei der Bildklassifizierung, den Erfolg von Deep Learning beim Spielen von Brettspielen und der Sprachübersetzung, die Allgemeingültigkeitsbeschränkungen von Empfehlungsgebern und selbstfahrenden Autos sowie die zunehmende Komplexität humanoider Roboter. Das Video hebt AlphaZeros beeindruckende Zunahme an Intelligenz, Allgemeingültigkeit und Leistung hervor und plädiert dafür, sich auf die physische Interaktion zu konzentrieren, um Algorithmen zu entwickeln, die eine allgemeinere Reihe von Aufgaben bewältigen können und uns der Intelligenz auf menschlicher Ebene näher bringen. Abschließend erklärt der Kursleiter den Prozess der Faltung, Bündelung und Normalisierung in neuronalen Faltungsnetzen, um Muster zu erkennen und genaue Vorhersagen zu treffen.
03:00:00 - 03:50:00 Dieses Video über die Funktionsweise tiefer neuronaler Netze führt Anfänger durch den Prozess der Bildkategorisierung, indem Neuronen und Schichten aufgebaut werden, die Muster in den Helligkeitswerten von Bildern erkennen. Das Video behandelt den Optimierungsprozess mit Gradientenabstieg und verschiedenen Optimierungsmethoden wie genetischen Algorithmen und Simulated Annealing. Der Dozent erklärt, wie man Fehler minimiert und Gewichtungen durch Backpropagation anpasst und wie man Hyperparameter in Convolutional Neural Networks optimiert. Obwohl viele Tools zum Erstellen neuronaler Netze verfügbar sind, bleibt ein gründliches Verständnis der Datenaufbereitung, Interpretation und Auswahl von Hyperparametern wichtig.
Teil 1
Teil 2
Teil 3
Teil 4
Machine Learning Kurs für Anfänger (Teile 1-5)
Machine-Learning-Kurs für Anfänger
Teil 1
Teil 2
Teil 3
Teil 4
Teil 5
Machine Learning-Kurs für Anfänger (Teile 6-10)
Machine-Learning-Kurs für Anfänger
Teil 6Teil 7
Teil 8
Teil 9
Teil 10
Maschinelles Lernen für alle – Vollständiger Kurs
Maschinelles Lernen für alle – Vollständiger Kurs
00:00:00 - 01:00:00 Dieser Teil des Videos behandelt die Grundlagen des maschinellen Lernens, einschließlich überwachtem und unüberwachtem Lernen. Es behandelt auch die verschiedenen verfügbaren Modelle und deren Verwendung. Abschließend wird erläutert, wie die Leistung eines maschinellen Lernmodells gemessen wird.
01:00:00 - 02:00:00 In diesem Teil wird erläutert, wie maschinelles Lernen verwendet wird, um die Ergebnisse von Ereignissen vorherzusagen. Es behandelt lineare Regression, logistische Regression und Support-Vektor-Maschinen. Außerdem wird erläutert, wie eine Rastersuche zum Trainieren eines maschinellen Lernmodells verwendet wird.
02:00:00 - 03:00:00 Dieser Teil behandelt die Grundlagen des maschinellen Lernens, einschließlich linearer Regression und Backpropagation. Es erklärt, wie man Daten normalisiert und ein lineares Regressionsmodell mit der TensorFlow-Bibliothek anpasst.
03:00:00 - 03:50:00 Dieses Video stellt die Konzepte des maschinellen Lernens vor, einschließlich überwachtem und nicht überwachtem Lernen. Es zeigt, wie man eine lineare Regression und ein neuronales Netzwerk verwendet, um Vorhersagen zu treffen. Der Referent erklärt auch, wie man maschinelles Lernen zum Clustern von Daten verwendet.
Teil 1
Teil 2
Teil 3
Teil 4