Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
CS 198-126: Vorlesung 4 - Einführung in Vortraining und Augmentationen
CS 198-126: Vorlesung 4 - Einführung in Vortraining und Augmentationen
In diesem Vortrag erklärt der Referent die Evolution der Merkmalsextraktion beim maschinellen Lernen, die Vorteile von Deep Learning und wie Transfer Learning eingesetzt werden kann, um die Genauigkeit und Geschwindigkeit von Modellen zu verbessern. Sie diskutieren auch das Konzept des Einfrierens und der Feinabstimmung von Schichten in neuronalen Netzen und die Bedeutung von Einbettungen bei der Reduzierung der Dimensionalität kategorialer Variablen. Die Vorlesung führt in das selbstüberwachte Lernen und seine verschiedenen Aufgaben ein, darunter die Puzzle-, Rotations- und Masked-Word-Prediction-Aufgaben, mit denen Modelle vortrainiert und erlernte Repräsentationen auf nachgelagerte Aufgaben übertragen werden können. Abschließend wird das wiedererwachte Interesse am selbstüberwachten Lernen im Bereich Computer Vision thematisiert und der Vortrag animiert, die Hausaufgaben am High Crush-Notebook zu erledigen.
einfach für tabellarische Daten, aber komplex für Daten wie Text, Audio oder Bilder. Für Bilder gibt es jedoch spezialisierte Merkmalsextraktoren, die in der klassischen Computervision verfügbar sind.
CS 198-126: Vorlesung 5 - Einführung in Computer Vision
CS 198-126: Vorlesung 5 - Einführung in Computer Vision
Diese Vorlesung über Computer Vision behandelt verschiedene Themen, darunter die Geschichte der Computer Vision und ihre Entwicklung im Laufe der Jahre. Der Dozent erklärt auch Deep Learning und wie es klassische Computer-Vision-Methoden verbessert. Der Vortrag befasst sich mit dem Konzept von Faltungen und wie sie als Merkmalsextrahierer in der Computervision verwendet werden, was zur Erstellung von Convolutional Neural Networks (CNNs) führt. Darüber hinaus diskutiert die Vorlesung die Rolle von rezeptiven Feldern und stellt Pooling-Layer als Methode vor, um das rezeptive Feld von CNNs zu erhöhen. Insgesamt bietet die Vorlesung einen Überblick über Computer Vision als Feld und die Techniken, die verwendet werden, um Informationen aus Bildern zu extrahieren. Im zweiten Teil der Vorlesung werden verschiedene Techniken zur Beibehaltung der Größe eines Bildes während Faltungen besprochen, darunter Padding und Same Padding. Das Konzept des Stride in Faltungsschichten wird ebenfalls behandelt und demonstriert, wie es den Effekt einer Pooling-Schicht nachahmen kann. Die Anatomie eines CNN und seine Hyperparameter, einschließlich Kernelgröße, Stride, Polsterung und Pooling-Layer, werden erklärt, wobei der Schwerpunkt darauf liegt, wie eine Convolutional Layer als Feature Extractor fungiert, der niedrigdimensionale Feature-Blöcke an eine vollständig verbundene Einheit übergibt Netzwerk zur Klassifikation. Die Vorlesungen behandeln auch die LeNet-Netzwerkarchitektur zur Klassifizierung handgeschriebener Ziffern und die Bedeutung der Normalisierung von Bilddaten, bevor sie durch ein neuronales Netzwerk geleitet werden. Abschließend wird die Datenaugmentation als Technik zur Erstellung zusätzlicher Trainingsdaten diskutiert und die Bedeutung des Modell-Checkpointings während des Trainings betont.
CS 198-126: Vorlesung 6 - Advanced Computer Vision Architectures
CS 198-126: Vorlesung 6 - Advanced Computer Vision Architectures
Diese Vorlesung über fortschrittliche Computer-Vision-Architekturen konzentriert sich auf Convolutional Neural Networks (CNNs) und ihre verschiedenen Techniken. Der Dozent erklärt die Architektur von AlexNet und VGG, bevor er sich mit fortgeschrittenen Techniken wie Residuen befasst, um Rückwärts-Residuenwerte für höhere Genauigkeit und einfachere Architekturen beizubehalten. Die Verwendung von Flaschenhälsen und Eins-zu-Eins-Faltung wird diskutiert, ebenso wie die Wichtigkeit, die Identität in Computer-Vision-Architekturen lernen zu können. Die Vorlesung behandelt auch die Probleme verschwindender Gradienten in neuronalen Netzen und wie sie mit Batch-Normalisierung und Residuennetzen gemildert werden können. Techniken wie Global Average Pooling und tiefenweise trennbare Faltung werden eingehend erläutert, gefolgt von einer Diskussion der Mobilfunknetzarchitektur und ihrer Vorteile.
Außerdem untersucht der Dozent fortschrittliche Computer Vision Architekturen und konzentriert sich auf die Optimierung von Convolutional Neural Network Modellen durch die Verwendung von Step Local Convolutions und One-by-One Convolutions. Er betont, wie wichtig es ist, diese Optimierungen und die Probleme zu verstehen, die bei bestimmten Optimierungen beim effizienten Aufbau zukünftiger Netzwerke auftreten können. Der Vortrag schließt mit einer Diskussion über den Kompromiss zwischen Genauigkeit, Leistung und Modellgröße, hervorgehoben durch den Vergleich des effizienten Netzmodells mit anderen Netzwerken. Die Schüler werden über ein bevorstehendes Quiz und eine Hausaufgabe informiert, die am folgenden Freitag fällig sind.
CS 198-126: Vorlesung 7 - Objekterkennung
CS 198-126: Vorlesung 7 - Objekterkennung
Der Vortrag behandelt die Objekterkennung, insbesondere das Hinzufügen von Lokalisierung zu einem einfachen Klassifikations-CNN, die IOU-Methode zur Objekterkennung, das R-CNN-System und die Optimierung von Objekterkennungsalgorithmen zur Minimierung der Verarbeitungszeit mit YOLO. Das Video erklärt YOLO, indem es ein Bild zerschneidet, und diskutiert die Herausforderungen bei der YOLO-Objekterkennung, einschließlich der Verwendung von Ankerboxen, um Mehrdeutigkeiten zu beseitigen. Schließlich wird die YOLO-Architektur untersucht, die ein vollständig konvolutionelles neuronales Netzwerk zur Objekterkennung ist, und die Speicherung einer großen Anzahl von Klassen zur Klassifizierung wird als laufende Forschungsfrage präsentiert. Der Referent empfiehlt die Lektüre von „The Yellow Paper“ und rät von RCNN wegen Unlesbarkeit ab.
CS 198-126: Vorlesung 8 - Semantische Segmentierung
CS 198-126: Vorlesung 8 - Semantische Segmentierung
Die Vorlesung behandelt Bildsegmentierung, einschließlich semantischer Segmentierung und Instanzsegmentierung. Das Hauptziel der Segmentierung besteht darin, alle Objekte in einem Bild zu erkennen und sie zu trennen. Der Dozent erklärt, wie ein Convolutional Neural Network (CNN) zur semantischen Segmentierung eingesetzt werden kann und wie Downsampling bei rechenintensiven Bildern mit voller Auflösung helfen kann. Es werden auch verschiedene Ansätze diskutiert, um ein kleines Volumen zurück in eine Bildgröße zu transformieren. Der Vortrag stellt das U-Net vor, ein Modell zur semantischen Segmentierung, das bisherige Verbesserungen mit Sprungverbindungen kombiniert, und erläutert, wie es mit dem Mask R-CNN-Ansatz zur Instanzsegmentierung erweitert werden kann. Ein vortrainiertes semantisches Segmentierungsmodell wird demonstriert, und der Referent spricht über das Vortraining und bevorstehende Kursaufgaben.
CS 198-126: Vorlesung 9 - Autoencoder, VAEs, Generative Modellierung
CS 198-126: Vorlesung 9 - Autoencoder, VAEs, Generative Modellierung
In dieser Vorlesung wird das Konzept der generativen Modellierung vorgestellt, bei dem mithilfe von maschinellem Lernen neue Bilder auf der Grundlage eines Datensatzes erstellt werden. Autoencoder, eine Art neuronales Netzwerk, das zum Lernen von Merkmalen verwendet wird, werden erklärt, wobei der Schwerpunkt auf ihrer Struktur liegt und wie sie Merkmale von Eingabedaten durch Komprimierung und Rekonstruktion lernen können. Die Vorlesung behandelt auch Variations-Autoencoder und ihre Vorteile sowie die Verwendung von strukturierten latenten Räumen in Autoencodern, um zwischen Bildern zu interpolieren. Die Bedeutung der Vektorquantisierung für die Arbeit mit diskreten Daten wird diskutiert, und die Verlustfunktion für einen Variations-Autoencoder wird erläutert, die einen Rekonstruktionsverlust und einen Commitment-Verlust umfasst, um eine Hartcodierung der Eingabedaten zu verhindern. Der Vortrag endet mit einer Zusammenfassung der behandelten Themen.
CS 198-126: Vorlesung 10 - GANs
CS 198-126: Vorlesung 10 - GANs
Die Vorlesung über GANs stellt das Konzept zweier Netzwerke vor, dem Diskriminator und dem Generator, die in einem spieltheoretischen Aufbau gegeneinander antreten. Die Eingabe des Generators ist zufälliges Rauschen, dem er eine Bedeutung zuweist, um echt aussehende Bilder zu erzeugen, und die Aufgabe des Diskriminators besteht darin, zu beurteilen, ob das Bild echt oder gefälscht ist. GANs verwenden eine Verlustfunktion, die einem negativen Kreuzentropieverlust entspricht, wobei der Generator ihn minimieren und der Diskriminator ihn maximieren möchte. Die Wertfunktion stellt dar, wie gut der Generator arbeitet und vom Diskriminator maximiert werden muss, indem gefälschte und echte Daten korrekt klassifiziert werden. Der Vortrag behandelt auch Probleme mit dem Training von GANs und dem nicht sättigenden Verlust, der es dem Generator ermöglicht, mehr Einfluss auf Änderungen zu haben.
CS 198-126: Vorlesung 11 - Fortgeschrittene GANs
CS 198-126: Vorlesung 11 - Fortgeschrittene GANs
Diese Vorlesung über fortgeschrittene GANs behandelt verschiedene Techniken zur Verbesserung der Stabilität und Qualität von GAN-Modellen, darunter bilineares Upsampling, transponierte Faltung, bedingte GANs, StyleGAN und CycleGAN. Der Vortrag behandelt auch die Verwendung von kontrolliertem Zufallsrauschen, adaptiver Instanznormalisierung und der Verarbeitung von Videos in GANs. Um eine bessere Stabilität und Ergebnisse zu erzielen, empfiehlt der Dozent, größere Batchgrößen zu verwenden und den Bereich des zufälligen Rauschens während des Tests abzuschneiden, während er davor warnt, den Diskriminator zu stark zu schwächen. Darüber hinaus wird empfohlen, mit einer breiten Verteilung unterschiedlich großer Latenträume zu beginnen, um eine Vielzahl von Bildern zu erzeugen. Schließlich berührt der Vortrag das Big Gan, das dabei hilft, GANs in sehr großen Maßstäben zu erzeugen.
CS 198-126: Vorlesung 12 - Diffusionsmodelle
CS 198-126: Vorlesung 12 - Diffusionsmodelle
In diesem Vortrag über Diffusionsmodelle diskutiert der Referent die Intuition hinter Diffusionsmodellen – die Vorhersage des einem Bild hinzugefügten Rauschens und dessen Entrauschung, um das Originalbild zu erhalten. Die Vorlesung behandelt den Trainingsprozess, erweiterte Architektur und Beispiele von Diffusionsmodellen bei der Generierung von Bildern und Videos. Darüber hinaus geht die Vorlesung auf latente Diffusionsmodelle ein, die das Modell in einen latenten Raum komprimieren, um die Diffusion auf dem semantischen Teil des Bildes auszuführen. Der Referent gibt auch einen Überblick über verwandte Modelle wie Dolly Q, Googles Imagine-Modell und Facebooks Make a Video und ihre Fähigkeit, 3D-Modelle mithilfe von Text zu generieren.
CS 198-126: Vorlesung 13 - Einführung in die Sequenzmodellierung
CS 198-126: Vorlesung 13 - Einführung in die Sequenzmodellierung
In diesem Vortrag zur Sequenzmodellierung führt der Referent ein, wie wichtig es ist, Sequenzdaten darzustellen und eine vernünftige Anzahl von Zeitschritten zu erreichen, ohne zu viele Informationen zu verlieren. Als erster Versuch zur Lösung dieser Herausforderungen werden rekurrente neuronale Netze (RNNs) diskutiert, die in der Lage sind, unterschiedlich lange Ein- und Ausgaben zu bewältigen. Probleme mit RNNs verhindern jedoch, dass sie optimal funktionieren. Die Texteinbettung wird als eine effizientere Methode zur Darstellung von Textdaten anstelle der Verwendung eines hochdimensionalen One-Hot-Vektors eingeführt. Darüber hinaus wird das Konzept der Positionscodierung als Möglichkeit zur Darstellung der Reihenfolge von Elementen in einer Sequenz unter Verwendung kontinuierlicher Werte anstelle von binären Werten diskutiert.