Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Vorlesung 13 – Unsicherheit im Deep Learning – Agustinus Kristiadi
Numerik von ML 13 – Unsicherheit im Deep Learning – Agustinus Kristiadi
Das Video erörtert Unsicherheiten beim Deep Learning, insbesondere bei den Gewichtungen neuronaler Netze, und die Bedeutung der Einbeziehung von Unsicherheiten aufgrund des Problems des asymptotischen Overconfidence, bei dem neuronale Netze Vorhersagen mit hoher Zuverlässigkeit für Out-of-Distribution-Beispiele liefern, mit denen nicht klassifiziert werden sollte Sicherheit. Das Video bietet Einblicke in die Verwendung von Größen zweiter Ordnung, insbesondere Krümmungsschätzungen, um Unsicherheit in tiefe neuronale Netzwerke zu bringen, indem eine Gaußsche Verteilung verwendet wird, um die Gewichte der letzten Schicht anzunähern, und die Hesse-Matrix, um die Krümmung des neuronalen Netzwerks zu schätzen. Das Video diskutiert auch den Bayes'schen Formalismus und LaPlace-Approximationen zur Auswahl von Modellen und Parametern neuronaler Netze.
Im zweiten Teil des Vortrags diskutiert Agustinus Kristiadi in diesem Video verschiedene Möglichkeiten, Unsicherheit in Deep-Learning-Modelle einzuführen. Eine Technik beinhaltet die Verwendung linearisierter Laplace-Approximationen, um ein neuronales Netzwerk in ein Gaußsches Modell umzuwandeln. Ein weiterer Ansatz ist das Out-of-Distribution-Training, bei dem Unsicherheit in Regionen hinzugefügt wird, die nicht vom ursprünglichen Trainingssatz abgedeckt werden. Kristiadi betont, wie wichtig es ist, Unsicherheit hinzuzufügen, um ein übermäßiges Vertrauen in das Modell zu vermeiden, und schlägt vor, probabilistische Maßnahmen zu verwenden, um die Kosten für die Suche nach dem idealen Seitenzahn zu vermeiden. Diese Techniken werden in einem bevorstehenden Kurs über probabilistisches maschinelles Lernen weiter untersucht.
Vortrag 14 -- Fazit -- Philipp Hennig
Numerik von ML 14 -- Fazit -- Philipp Hennig
Philipp Hennig gibt eine Zusammenfassung des Kurses „Numerik des maschinellen Lernens“ und betont die Bedeutung der Lösung mathematischer Probleme im maschinellen Lernen im Zusammenhang mit der numerischen Analyse, wie Integration, Optimierung, Differentialgleichungen und lineare Algebra. Er erörtert die Komplexität der Durchführung linearer Algebra an einem Datensatz und wie sie sich auf die Verarbeitungseinheit und die Festplatte bezieht. Hennig behandelt auch Themen wie den Umgang mit Datensätzen nichttrivialer Größe, Algorithmen zur Lösung linearer Systeme, das Lösen partieller Differentialgleichungen und das Schätzen von Integralen. Abschließend erkennt er die Schwierigkeit beim Training tiefer neuronaler Netze und die Notwendigkeit von Lösungen zur Überwindung des Stochastizitätsproblems an.
Im Abschluss seiner Vortragsreihe betont Philipp Hennig, wie wichtig es ist, über das bloße Trainieren von Machine-Learning-Modellen hinauszugehen und zu wissen, wie viel das Modell weiß und was es nicht weiß. Er spricht über das Schätzen der Krümmung der Verlustfunktion, um Unsicherheitsschätzungen für tiefe neuronale Netze zu erstellen, und die Bedeutung, probabilistisch zu sein, aber aufgrund der Rechenkomplexität nicht unbedingt in jedem Fall das Bayes-Theorem anzuwenden. Hennig betont auch die Bedeutung der numerischen Berechnung beim maschinellen Lernen und die Notwendigkeit, neue datenzentrierte Berechnungsmethoden zu entwickeln. Abschließend bittet er um Feedback zum Kurs und bespricht die bevorstehende Prüfung.
Support Vector Machine (SVM) in 7 Minuten - Fun Machine Learning
Support Vector Machine (SVM) in 7 Minuten - Fun Machine Learning
Das Video erklärt Support Vector Machines (SVM), einen Klassifizierungsalgorithmus, der für Datensätze mit zwei Klassen verwendet wird und eine Entscheidungsgrenze oder Hyperebene basierend auf den Extremen des Datensatzes zeichnet. Es wird auch erörtert, wie SVM für nichtlinear trennbare Datensätze verwendet werden kann, indem sie mit einem Kernel-Trick in höherdimensionale Merkmalsräume umgewandelt werden. Das Video identifiziert die Vorteile von SVM wie Effektivität in hochdimensionalen Räumen, Speichereffizienz und die Möglichkeit, verschiedene Kernel für benutzerdefinierte Funktionen zu verwenden. Das Video identifiziert jedoch auch die Nachteile des Algorithmus, wie z. B. eine schlechte Leistung, wenn die Anzahl der Merkmale größer ist als die Anzahl der Stichproben, und das Fehlen direkter Wahrscheinlichkeitsschätzungen, die eine teure Kreuzvalidierung erfordern.
The Deep Learning Revolution – Geoffrey Hinton – Vortrag des RSE-Präsidenten 2019
„The Deep Learning Revolution“ – Geoffrey Hinton – Vortrag des RSE-Präsidenten 2019
Geoffrey Hinton, bekannt als „Godfather of Deep Learning“, spricht über die Geschichte und Entwicklung von Deep Learning und neuronalen Netzen, die Herausforderungen und aufregenden Möglichkeiten der Nutzung von Deep Learning zur Schaffung von Maschinen, die auf die gleiche Weise wie menschliche Gehirne lernen können, und die Tricks und Techniken, die Backpropagation effektiver gemacht haben. Er beschreibt auch den Erfolg neuronaler Netze bei der Spracherkennung und Computer Vision, die Entwicklung neuronaler Netze für Computer Vision und unüberwachtes Vortraining sowie ihre Wirksamkeit bei der Sprachmodellierung und maschinellen Übersetzung. Abschließend hebt er den Wert des Analogieschlusses hervor und erörtert seine Theorie der „Kapseln“ und der Verknüpfung von Wissen zu einem Modell, das Teile des Ganzen vorhersagt.
Geoffrey Hinton, ein Pionier im Bereich Deep Learning, hält einen Vortrag, in dem er sich für die Integration von assoziativen Erinnerungen, schnellgewichtigen Erinnerungen und mehreren Zeitskalen in neuronale Netze einsetzt, um langfristiges Wissen und vorübergehende Speicherung zu ermöglichen, was für echtes Denken erforderlich ist. Darüber hinaus diskutiert er den Balanceakt zwischen früheren Überzeugungen und Daten, das Potenzial des unüberwachten Lernens, die Effizienz von Faltungsnetzen beim Erkennen von Objekten unter Einbeziehung von Standpunktwissen und translationaler Äquivarianz sowie die Notwendigkeit, symbolisches Denken mit konnektionistischen Netzwerken wie Transformatoren zu kombinieren Netzwerke. Er spricht auch das Problem unbewusster Vorurteile beim maschinellen Lernen an und glaubt, dass sie leichter behoben werden können als menschliche Vorurteile, indem Vorurteile identifiziert und korrigiert werden. Abschließend betont er die Notwendigkeit von mehr Finanzierung und Unterstützung für junge Forscher im Bereich der KI.
Machine Learning From Scratch Vollständiger Kurs
Machine Learning From Scratch Vollständiger Kurs
Modelle für maschinelles Lernen selbst zu implementieren, ist eine der besten Möglichkeiten, sie zu beherrschen. Obwohl es wie eine herausfordernde Aufgabe erscheint, ist es für die meisten Algorithmen oft einfacher, als Sie sich vorstellen können. In den nächsten 10 Tagen werden wir Python und gelegentlich Numpy für spezifische Berechnungen verwenden, um jeden Tag einen maschinellen Lernalgorithmus zu implementieren.
Sie finden den Code in unserem GitHub-Repository: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch
Wie ChatGPT tatsächlich funktioniert
Wie ChatGPT tatsächlich funktioniert
ChatGPT ist ein maschinelles Lernmodell, das schädliche Inhalte in Chat-Gesprächen korrekt identifizieren kann. Seine Architektur basiert auf menschlichen Eingaben, und seine Mängel werden skizziert. Außerdem werden Leseempfehlungen gegeben.
Wie man KNN von Grund auf mit Python implementiert
Code: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/01%20KNN
Wie man KNN von Grund auf mit Python implementiert
Im Video mit dem Titel „How to implement KNN from scratch with Python“ erklärt der Referent, wie man mit Python einen KNN-Classifier von Grund auf neu erstellt. Sie decken die Schritte zur Implementierung des Algorithmus ab, z. B. die Berechnung des Abstands zwischen dem neuen Datenpunkt und anderen Punkten im Datensatz, die Auswahl der k nächstgelegenen Punkte und die Bestimmung des Labels für die Klassifizierung oder des Durchschnitts für die Regression. Der Referent implementiert den Algorithmus mithilfe einer Klasse in Python und demonstriert seine erfolgreiche Implementierung am Iris-Datensatz mit einer Genauigkeitsrate von 96 %. Sie laden die Zuschauer auch ein, sich den Code in ihrem Github-Repository anzusehen und Fragen im Kommentarbereich zu stellen.
So implementieren Sie die lineare Regression von Grund auf mit Python
Code: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/02%20Linear%20Regression
So implementieren Sie die lineare Regression von Grund auf mit Python
Dieses Video behandelt den Prozess der Implementierung einer linearen Regression von Grund auf mit Python. Der Referent erklärt, wie man mithilfe des mittleren quadratischen Fehlers die am besten passende Linie findet und wie man die Gewichte und Verzerrungen mit Gradientenabstieg berechnet. Der Referent erörtert auch, wie sich die Lernrate auf die Konvergenz auswirkt, und zeigt, wie das Modell mit der Datensatzfunktion von scikit-learn getestet werden kann. Sie beheben auch einen Tippfehler im Code und passen die Lernrate an, um die Anpassung der Vorhersagelinie zu verbessern. Der Code wird auf GitHub geteilt und Zuschauer sind eingeladen, Fragen zu stellen.
das Ergebnis, und der Fehler der Gleichung wird berechnet, was es einfacher macht, die Gradienten durch Matrixmultiplikation mit allen Datenpunkten zu berechnen. Während des Testens sagt ein trainiertes Modell Ergebnisse anhand der Gleichung voraus.
Wie man die logistische Regression mit Python von Grund auf neu implementiert
Code: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/03%20Logistic%20Regression
Wie man die logistische Regression mit Python von Grund auf neu implementiert
Das Video erklärt, wie Sie die logistische Regression von Grund auf mit Python implementieren, indem Sie die Sigmoid-Funktion verwenden, um Wahrscheinlichkeiten und Kreuzentropie als Fehlerfunktion zu erstellen. Der Kursleiter gibt schrittweise Anweisungen zum Berechnen von Vorhersagen, Gradienten und Aktualisieren von Verzerrungen durch Iterationen. Sie demonstrieren auch, wie ein Brustkrebsdatensatz geladen und der logistische Regressionsklassifikator trainiert wird, um vorherzusagen, ob ein Tumor bösartig oder gutartig ist. Das Video endet mit der Bewertung der Genauigkeit des Modells mithilfe einer benutzerdefinierten Funktion. Insgesamt ist die Implementierung erfolgreich und beweist, dass der logistische Regressionsalgorithmus gut funktioniert.
Wie man Entscheidungsbäume von Grund auf mit Python implementiert
Code: https://github.com/AssemblyAI-Examples/Machine-Learning-From-Scratch/tree/main/04%20Decision%20Trees
Wie man Entscheidungsbäume von Grund auf mit Python implementiert
Das Video bietet eine Schritt-für-Schritt-Anleitung zum Erstellen eines Entscheidungsbaums von Grund auf mit Python. Der Referent erklärt das Konzept von Entscheidungsbäumen, wie sie funktionieren und wie sie aufgebaut sind. Sie diskutieren Abbruchkriterien, die Grow-Tree-Funktion, die Hilfsfunktionen „meistgebräuchliches Label“, „Informationsgewinn“, „Entropie“ und „Split“ sowie die Vorhersagefunktion. Der Referent demonstriert auch, wie man Informationsgewinn, gewichtete Entropie und Genauigkeit berechnet. Darüber hinaus testen sie das Entscheidungsbaummodell und stellen den Zuschauern einen Link zu ihrem GitHub-Repository zur Verfügung, in dem der Code verfügbar ist.