Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
CS480/680 Vorlesung 5: Statistische lineare Regression
CS480/680 Vorlesung 5: Statistische lineare Regression
In dieser Vorlesung über statistische lineare Regression behandelt der Professor zahlreiche Themen, beginnend mit dem Konzept der maximalen Wahrscheinlichkeit und der Gaußschen Wahrscheinlichkeitsverteilung für verrauschte, beschädigte Daten. Sie erläutern die Verwendung von Maximum-Likelihood-Techniken beim Ermitteln der Gewichte, die die maximale Wahrscheinlichkeit für alle Datenpunkte im Datensatz ergeben. Anschließend befasst sich die Vorlesung mit der Idee des Maximum a-posteriori (MAP), der sphärischen Gaußschen Funktion und der Kovarianzmatrix. Der Redner diskutiert auch die Verwendung von A-priori-Informationen und Regularisierung. Der erwartete Fehler in der linearen Regression wird dann in zwei Terme zerlegt: einen, der das Rauschen berücksichtigt, und einen anderen, der vom Gewichtsvektor W abhängt, der weiter in Bias und Varianz zerlegt werden kann. Die Vorlesung endet mit einer Diskussion über die Verwendung des Bayes'schen Lernens zur Berechnung der Posterior-Verteilung. Insgesamt deckt die Vorlesung ein breites Themenspektrum im Zusammenhang mit der statistischen linearen Regression ab und bietet wertvolle Einblicke in die Optimierung von Modellen zur Reduzierung von Vorhersagefehlern.
Die Vorlesung konzentriert sich auf die Bayes'sche Regression, die eine Posterior-Verteilung schätzt, die in Richtung des wahren Gewichtssatzes konvergiert, je mehr Datenpunkte beobachtet werden. Es wird gezeigt, dass die vorherige Verteilung eine Verteilung über Paare von W Null und W1 ist und eine Verteilung von Linien ist. Nach der Beobachtung eines Datenpunkts wird die Posterior-Verteilung anhand der Prior- und Likelihood-Verteilung berechnet, was zu einer aktualisierten Annahme über die Position der Linie führt. Um Vorhersagen zu treffen, wird eine gewichtete Kombination der Vorhersagen der Hypothesen basierend auf der Posterior-Verteilung erstellt, was zu einer Gaußschen Vorhersage mit einem Mittelwert und einer Varianz führt, die durch spezifische Formeln gegeben sind. Der Trick, eine tatsächliche Punktvorhersage zu erhalten, besteht darin, den Mittelwert der Gaußschen Vorhersage zu ermitteln.
CS480/680 Vorlesung 6: Tools für Umfragen (Paulo Pacheco)
CS480/680 Vorlesung 6: Tools für Umfragen (Paulo Pacheco)
In diesem Video stellt Paulo Pacheco zwei akademische Tools für Umfragen vor: Google Scholar und RefWorks. Er erklärt, wie man mit Google Scholar nach wissenschaftlichen Arbeiten sucht und sie nach Zitaten sortiert, und schlägt vor, ältere Arbeiten durch neuere herauszufiltern. Pacheco betont die Bedeutung des Exports und der Verwaltung von Zitaten und stellt RefWorks als Tool für diese Aufgabe vor. Er gibt auch Tipps für den Zugriff auf wissenschaftliche Publikationen, einschließlich der Verwendung kreativer Stichwortsuchen und möglicherweise der Notwendigkeit eines Universitätsnetzwerkzugriffs oder eines VPN.
CS480/680 Vorlesung 6: Kaggle-Datensätze und Wettbewerbe
CS480/680 Vorlesung 6: Kaggle-Datensätze und Wettbewerbe
In der Vorlesung geht es um Kaggle, eine Community für Praktiker der Datenwissenschaft, die in gesponserten Wettbewerben mit bereitgestellten Datensätzen gegen einen Geldpreis antritt und Kernel für das Training von Modellen für maschinelles Lernen und die Extraktion von Datenmerkmalen sowie eine große Auswahl von fast 17.000 Datensätzen zur Verwendung beim Entwerfen von Algorithmen anbietet. Der Dozent weist außerdem darauf hin, dass GitHub-Repositories von Unternehmen wertvolle Datensätze, Codes und veröffentlichte Beiträge für Wettbewerbe bereitstellen können.
CS480/680 Vorlesung 6: Normalisierung von Flüssen (Priyank Jaini)
CS480/680 Vorlesung 6: Normalisierung von Flüssen (Priyank Jaini)
Das Video bietet eine Einführung in die Normalisierung von Flüssen in tiefen generativen Modellen, eine Technik, die eine Funktion lernt, um eine Verteilung in eine andere umzuwandeln, mit dem Ziel, eine bekannte Verteilung in eine unbekannte interessierende Verteilung umzuwandeln. Das Video bespricht auch mögliche Forschungsprojekte im Zusammenhang mit der Normalisierung von Flüssen, einschließlich der Durchführung einer Umfrage zu verschiedenen Veröffentlichungen und Fortschritten im Zusammenhang mit der Normalisierung von Flüssen und der Analyse der Umwandlung einer einzelnen Gaußschen Funktion in eine Mischung von Gaußschen Gleichungen. Der Dozent regt zur Erkundung der vielfältigen Anwendungen der Normalisierung von Strömungen an.
CS480/680 Vorlesung 6: Unbeaufsichtigte Wortübersetzung (Kira Selby)
CS480/680 Vorlesung 6: Unbeaufsichtigte Wortübersetzung (Kira Selby)
Das Video befasst sich mit der unbeaufsichtigten Wortübersetzung, bei der ein maschinelles Lernmodell für die Übersetzung in und aus einer Sprache trainiert wird, ohne dass sprachübergreifende Informationen oder Wörterbuchabgleich erforderlich sind. Das Muse-Modell wird als Ansatz eingeführt, der in Hunderten von Sprachen eine hochmoderne Genauigkeit ohne sprachübergreifende Informationen erreichen kann und in der Leistung überwachten Modellen nahe kommt. Der Prozess der unbeaufsichtigten Wortübersetzung verwendet eine Matrix, die die Einbettungsräume verschiedener Sprachwörter mithilfe von GAN oder generativen kontradiktorischen Netzwerken übersetzt. Indem diese beiden Modelle gegeneinander trainiert werden, entsteht eine Möglichkeit, zwei Verteilungen einem Raum zuzuordnen, was zu besseren Übersetzungsergebnissen führt. Die Modelle können eine Genauigkeit von 82,3 % bei Wort-zu-Wort-Übersetzungen erreichen.
CS480/680 Vorlesung 6: Faktenprüfung und verstärkendes Lernen (Vik Goel)
CS480/680 Vorlesung 6: Faktenprüfung und verstärkendes Lernen (Vik Goel)
Der Informatiker Vik Goel diskutiert die Anwendung von Reinforcement Learning bei der Faktenprüfung von Online-Nachrichten und schlägt den Einsatz eines Empfehlungssystems vor, um unterstützende Beweise in Echtzeit einzufügen. Er schlägt vor, einen großen Korpus wissenschaftlicher Arbeiten als Datenquelle zu verwenden, um einem Klassifikator beizubringen, vorherzusagen, wo eine Zitierung erforderlich ist. Darüber hinaus erklärt Goel, wie Forscher damit begonnen haben, menschliche Priors in Reinforcement-Learning-Modelle zu kodieren, um den Prozess zu beschleunigen und verschiedene Objekte in Videospielen zu erkennen. Dies stellt ein vielversprechendes Forschungsgebiet dar, in dem zusätzliche Priors den Lernprozess verbessern können.
CS480/680 Vorlesung 6: Summenproduktnetzwerke (Pranav Subramani)
CS480/680 Vorlesung 6: Summenproduktnetzwerke (Pranav Subramani)
In der Vorlesung werden die Konzepte von Summen-Produkt-Netzwerken (SPN) diskutiert, bei denen es sich um Netzwerke handelt, die aus Summen und Produkten bestehen und für nachvollziehbare probabilistische Modellierung verwendet werden, die nicht-exponentielle Laufzeiten liefert und viele Anwendungen wie Interpretierbarkeit und einfache Randdichteberechnung bietet. Das Video erwähnt auch die hervorragende Leistung von SPN mit Faltungs-Neuronalen Netzen, sein Potenzial zum Aufbau besserer generativer Modelle in Kombination mit Modellen wie GANs und Variation Water Encodern sowie die ungenutzten potenziellen Forschungsbereiche für SPNs, einschließlich gegnerischer Robustheit, Verstärkungslernszenarien und Modellierung erwarteter Nutzen bei Spielen. Hervorgehoben wurden auch die theoretische Garantie der Interpretation des Modells und die Möglichkeit für Wissenschaftler, wesentliche Beiträge im Bereich des maschinellen Lernens zu leisten.
CS480/680 Vorlesung 6: EM- und Mischungsmodelle (Guojun Zhang)
CS480/680 Vorlesung 6: EM- und Mischungsmodelle (Guojun Zhang)
In CS480/680 Vorlesung 6 diskutiert Professor Guojun Zhang die Grundlagen des unbeaufsichtigten Lernens und des Clusterings und konzentriert sich dabei auf Mischungsmodelle und deren Verwendung beim Clustering von Daten. Im Mittelpunkt der Vorlesung stehen der Expectation-Maximization-Algorithmus und seine Estep- und Mstep-Prozesse sowie der Gradientenabstieg als Optimierungsverfahren. Das vorgeschlagene potenzielle Projekt umfasst die Untersuchung des Verhaltens von EM und Gradientenabstieg in Lernmischungsmodellen. Das ultimative Ziel besteht darin, einen besseren Algorithmus vorzuschlagen, um schlechte lokale Minima zu vermeiden. Ein mathematischer Hintergrund wird als für das Projekt erforderlich angegeben.
CS480/680 Vorlesung 6: Modellkomprimierung für NLP (Ashutosh Adhikari)
CS480/680 Vorlesung 6: Modellkomprimierung für NLP (Ashutosh Adhikari)
In diesem Video diskutiert der Moderator das Konzept der Modellkomprimierung für NLP und die Herausforderungen der Verarbeitungszeit und des Speicherbedarfs bei zunehmender Anzahl und Tiefe tiefer neuronaler Netze. Modellkomprimierungstechniken werden kategorisiert und die älteste Methode, Parameterbereinigung und -freigabe, wird vorgestellt. Der Redner geht weiter auf das Konzept eines Schüler-Lehrer-Systems zur Modellkomprimierung in NLP ein und wie die Zielfunktion verwendet wird, um ein größeres Modell in ein kleineres Schülermodell zu komprimieren und dabei die Genauigkeit beizubehalten. Abschließend wird die potenzielle Bedeutung der Komprimierung von Modellen im Kontext neuerer Arbeiten zur Entwicklung groß angelegter NLP-Modelle hervorgehoben.
CS480/680 Vorlesung 7: Mischung von Gaußschen Operatoren
CS480/680 Vorlesung 7: Mischung von Gaußschen Operatoren
In diesem Vortrag über die Mischung von Gaußschen Gleichungen erklärt der Redner, wie das Modell zur Klassifizierung verwendet werden kann, indem für jede Klasse eine A-priori-Verteilung erstellt wird, die die Konstruktion eines probabilistischen Modells mithilfe des Bayes-Theorems ermöglicht, um die Wahrscheinlichkeit einer Klasse für eine gegebene Klasse abzuschätzen Datenpunkt. Die Vorlesung behandelt auch den Prozess der Berechnung der Wahrscheinlichkeit, dass ein Datenpunkt zu einer bestimmten Klasse gehört, und wie diese zur Bestimmung der Klassenvorhersage verwendet wird. In den Vorlesungsunterlagen wird die Beziehung zwischen der Softmax-Funktion und der Arc-Max-Verteilung untersucht und wie die Form und Grenzen der Gaußschen Funktion durch die Kovarianzmatrix bestimmt werden. Abschließend wird in der Vorlesung der Prozess des Maximum-Likelihood-Lernens detailliert beschrieben und erläutert, wie er zur Schätzung des Mittelwerts und der Kovarianzmatrix für ein Gaußsches Mischungsmodell verwendet werden kann.