Maschinelles Lernen und neuronale Netze - Seite 14

 

MIT 6.0002 Intro to Computational Thinking and Data Science, Herbst 2016. Vorlesung 1. Einführung, Optimierungsprobleme



1. Einführung, Optimierungsprobleme (MIT 6.0002 Intro to Computational Thinking and Data Science)

Dieses Video stellt den Kurs "1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)" vor und erläutert die Voraussetzungen und Kursziele. Der Schwerpunkt des Kurses liegt auf der Verwendung von Computermodellen, um die Welt zu verstehen und zukünftige Ereignisse vorherzusagen. Das Video behandelt Optimierungsmodelle, die eine einfache Möglichkeit darstellen, Probleme mit Zielen und Einschränkungen zu lösen. Das Video diskutiert auch ein spezifisches Optimierungsproblem namens Rucksackproblem, bei dem eine Person auswählen muss, welche Objekte sie aus einer endlichen Menge von Objekten nehmen möchte. Das Video erläutert, wie man ein Menü mit einem Greedy-Algorithmus optimiert. Das Video diskutiert auch einen effizienten Algorithmus für die Zuweisung von Ressourcen, der als „Gier nach Wert“ bezeichnet wird.

  • 00:00:00 Dieses Video stellt den Kurs „1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)“ vor und erläutert die Voraussetzungen und Kursziele. Der Schwerpunkt des Kurses liegt auf der Verwendung von Computermodellen, um die Welt zu verstehen und zukünftige Ereignisse vorherzusagen.

  • 00:05:00 Das Video behandelt Optimierungsmodelle, die eine einfache Möglichkeit darstellen, Probleme mit Zielen und Einschränkungen zu lösen. Das Video diskutiert auch ein spezifisches Optimierungsproblem namens Rucksackproblem, bei dem eine Person auswählen muss, welche Objekte sie aus einer endlichen Menge von Objekten nehmen möchte.

  • 00:10:00 In diesem Video wird das kontinuierliche oder sogenannte Fractional-Rucksack-Problem erklärt und ein Greedy-Algorithmus beschrieben. Das Problem, das Beste zuerst zu nehmen, ist komplizierter, und es wird eine Formalisierung des Problems gezeigt.

  • 00:15:00 Der Greedy-Algorithmus löst ein Optimierungsproblem, indem er den besten verfügbaren Gegenstand in den Rucksack legt, sobald er voll ist. Dieser Algorithmus ist effizient, aber es ist nicht garantiert, dass er die bestmögliche Lösung findet.

  • 00:20:00 Das Video erläutert, wie man ein Menü mit einem Greedy-Algorithmus optimiert. Der Algorithmus ist in einer Klasse namens Food implementiert, die Funktionen zum Abrufen von Werten, zum Abrufen der Kostendichte und zur Darstellung von Zeichenfolgen enthält. Das Funktionserstellungsmenü nimmt eine Liste von Namen und eine Liste von Werten gleicher Länge und verwendet die Schlüsselfunktion, um zu bestimmen, was mit "am besten" gemeint ist.

  • 00:25:00 In diesem Video wird ein effizienter Algorithmus zur Zuweisung von Ressourcen mit dem Namen „Gier nach Wert“ erläutert. Der Algorithmus berücksichtigt das Gewicht und die Anforderungen einer Ressource und ist in der Lage, Ressourcen für große Zahlen effizient zuzuweisen.

  • 00:30:00 Das Video erläutert die Verwendung von Lambda-Ausdrücken zum Erstellen einer anonymen Funktion. Es erklärt, dass Lambda-Ausdrücke verwendet werden können, um eine Funktion zu erstellen, die einen Ausdruck für eine Folge von Parametern auswertet. Es zeigt auch, wie die Funktion eines Lambda-Ausdrucks aufgerufen wird.

  • 00:35:00 Das Video erläutert, wie gierige Algorithmen je nach Sortierreihenfolge zu unterschiedlichen Ergebnissen führen können und wie dies beim Bergsteigen ein Problem sein kann. Es zeigt auch, wie man einen Greedy-Algorithmus modifiziert, um immer das beste Ergebnis zu erzielen.

  • 00:40:00 Das Video erläutert, wie der Greedy-Algorithmus manchmal zu besseren Lösungen führen kann als der optimalere, aber zeitaufwändigere Algorithmus.
1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)
1. Introduction, Optimization Problems (MIT 6.0002 Intro to Computational Thinking and Data Science)
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Vorlesung 2. Optimierungsprobleme



2. Optimierungsprobleme

In diesem Video wird erläutert, wie Optimierungsprobleme mithilfe einer Technik namens dynamische Programmierung gelöst werden können. Das verwendete Beispiel ist das Rucksackproblem, bei dem verschiedene Entscheidungen an jedem Knoten dazu führen, dass dasselbe Problem gelöst wird. Die Memo-Implementierung der maxVal-Funktion wird diskutiert, und es wird gezeigt, dass die Anzahl der Aufrufe für die dynamische Programmierlösung langsam wächst.

  • 00:00:00 Das Video diskutiert die Vor- und Nachteile von Greedy-Algorithmen und zeigt anhand eines Beispiels, wie ein Suchbaum zur Lösung eines Problems verwendet werden kann.

  • 00:05:00 Das Video erläutert das Durchlaufen eines Baums und erklärt, dass der Knoten ganz links die meisten möglichen Elemente und der Knoten ganz rechts die wenigsten möglichen Elemente enthält. Der Algorithmus ist einfach und asymptotisch in seiner Komplexität.

  • 00:10:00 Dieses Video erklärt, wie der rekursive Algorithmus zur Lösung von Optimierungsproblemen funktioniert. Der Algorithmus beginnt damit, den linken Zweig des Baums zu untersuchen, wenn das aktuelle Element nicht genommen werden kann, und fährt dann mit dem rechten Zweig fort, wenn dies möglich ist. Wenn keine Verzweigung genommen werden kann, gibt der Algorithmus den maximalen Wert der toConsider-Liste zurück.

  • 00:15:00 In diesem Video zeigt der Autor, wie die Leistung eines Suchalgorithmus verbessert werden kann, indem ein wirklich optimaler Algorithmus verwendet wird.

  • 00:20:00 In diesem Video erfahren wir mehr über Optimierungsprobleme und wie sie mit einer Technik namens dynamische Programmierung gelöst werden können. Dynamische Programmierung ist eine Methode zur Lösung von Optimierungsproblemen, die auf dem Verständnis eines Mathematikers basiert, wie sich Daten im Laufe der Zeit ansammeln.

  • 00:25:00 Dynamische Programmierung ist eine Methode, um zu vermeiden, dass dieselben Berechnungen mehrmals wiederholt werden. Es wird beim Fibonacci-Problem verwendet, bei dem die Antwort auf eine Fibonacci-Zahl berechnet wird, indem die beiden vorherigen Fibonacci-Zahlen genommen und addiert werden.

  • 00:30:00 In diesem Video diskutiert der Autor die Vorteile der Memoisierung – einer Technik, die Ergebnisse in einer Tabelle speichert, anstatt sie rekursiv zu berechnen. Sie zeigen, wie dies verwendet werden kann, um die Leistung in einer Fibonacci-Funktion zu verbessern, indem zuerst kleinere Teilprobleme gelöst und dann die Ergebnisse kombiniert werden.

  • 00:35:00 Das Video diskutiert Optimierungsprobleme und wie in einigen Fällen Lösungen gefunden werden können, indem dasselbe Problem mehrmals gelöst wird. Es wird auch das Rucksackproblem diskutiert, das eine optimale Unterstruktur aufweist, dh zwei Knoten, die dasselbe Problem lösen. Das Video weist jedoch auch darauf hin, dass in einigen Fällen Lösungen für Probleme gefunden werden können, indem verschiedene Probleme gelöst werden – in diesem Fall zwei Knoten, die dasselbe Problem lösen, indem sie verschiedene Biere aus einer Speisekarte nehmen.

  • 00:40:00 Das Video erläutert, wie Optimierungsprobleme mithilfe einer dynamischen Programmierlösung angegangen werden können. Der Baum im Beispiel zeigt, wie unterschiedliche Entscheidungen an jedem Knoten (was zu nehmen und nicht zu nehmen ist) dazu führen, dass dasselbe Problem gelöst wird, obwohl die einzelnen Lösungen unterschiedlich aussehen können. Die Memo-Implementierung der maxVal-Funktion wird diskutiert, und es wird gezeigt, dass die Anzahl der Aufrufe für die dynamische Programmierlösung langsam wächst.

  • 00:45:00 In diesem Video wird erläutert, wie schwierig Optimierungsprobleme zu lösen sind, aber dynamische Programmierung oft eine angemessene, wenn auch nicht optimale Lösung bietet.
2. Optimization Problems
2. Optimization Problems
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Vorlesung 3. Graphentheoretische Modelle



3. Graphentheoretische Modelle

Dieses Video erklärt, wie die Graphentheorie verwendet werden kann, um Probleme im Zusammenhang mit Netzwerken zu verstehen und zu lösen. Das Video stellt das Konzept eines Graphen vor und erklärt, wie man mithilfe der Graphentheorie den kürzesten Weg zwischen zwei Punkten findet. Das Video demonstriert auch, wie man die Graphentheorie verwendet, um ein Netzwerk zu optimieren, und erklärt, wie das Modell auf reale Probleme angewendet werden kann.

  • 00:00:00 Dieses Video behandelt die Graphentheorie, einen Zweig der Mathematik, der die Strukturen und Dynamiken von Netzwerken untersucht. Die Graphentheorie ermöglicht es, Optimierungsmodelle einfacher zu entwerfen und zu untersuchen sowie zu verstehen, wie Daten durch Netzwerke fließen. Die Graphentheorie wird in zwei Kategorien unterteilt: Graphen und Graphen mit Kanten. Graphen haben typischerweise zwei Elemente, Knoten und Kanten. Knoten stellen Datenpunkte dar und Kanten stellen die Verbindungen zwischen ihnen dar. Graphen mit Kanten sind häufiger und werden verwendet, um eine Beziehung zwischen zwei Entitäten zu modellieren. Wir werden zwei Möglichkeiten sehen, Graphen mit Kanten zu erstellen: ungerichtet und gerichtet. Wir werden auch untersuchen, wie man Kanten Informationen hinzufügt, wie z. B. Gewichte. Schließlich werden wir in eine Methode der Navigation durch Graphen eingeführt, die als Kostenminimierung oder kürzester Weg bekannt ist.

  • 00:05:00 Graphen bestehen aus Kanten oder Bögen und können verwendet werden, um Beziehungen zwischen Entitäten zu modellieren. Sie können unter anderem in Transportnetzwerken, Finanznetzwerken und sozialen Netzwerken verwendet werden.

  • 00:10:00 Dieses Video führt in die Graphentheorie ein, ein mathematisches Gebiet, das zum Verständnis von Beziehungsnetzwerken verwendet wird. Graphen können verwendet werden, um reale Situationen darzustellen, und sie können verwendet werden, um Informationen wie den kürzesten Weg und die Abfolge von Interaktionen zwischen Elementen in einem Netzwerk abzuleiten. Dieses Video zeigt, wie man die Graphentheorie verwendet, um Probleme wie Pendeln und Navigation zu lösen.

  • 00:15:00 Graphentheorie ist ein Gebiet der Mathematik, das sich mit den Strukturen und Wechselwirkungen von Netzwerken beschäftigt. Dieses Video folgt einer einfachen Erklärung, wie die Graphentheorie verwendet wird, um Probleme mit kürzesten Pfaden zu lösen.

  • 00:20:00 Der Autor stellt ein graphentheoretisches Modell vor, das ein gerichteter Graph mit Knoten und Kanten ist, und eine Möglichkeit, Knoten und Kanten in einem Wörterbuch zu speichern. Das Modell ermöglicht eine einfache Darstellung eines Diagramms, ist jedoch nicht der effizienteste Weg, dies zu tun. Der Autor führt eine Adjazenzliste ein, die eine effizientere Art ist, einen Graphen darzustellen, und verwendet sie, um zu zeigen, wie man eine Kante hinzufügt und alle Kinder eines Knotens erhält.

  • 00:25:00 In diesem Video wird erklärt, wie Sie Diagramme mit der Programmiersprache Python erstellen, suchen und drucken. Graphen können als Unterklasse der Digraph-Klasse erstellt werden, was gerichtete und ungerichtete Graphen ermöglicht. Das Video zeigt ein Beispiel dafür, wie man eine Kante zwischen zwei Knoten in einem Diagramm hinzufügt.

  • 00:30:00 Das Video präsentiert drei graphentheoretische Modelle: Kürzeste-Wege-Probleme, Routennavigation und Kommunikationsnetze. Das erste Modell, Kürzeste-Wege-Probleme, ist ein Navigationsproblem, bei dem das Ziel darin besteht, eine Route zwischen zwei Städten zu finden. Das zweite Modell, die Routennavigation, ist ein Problem, bei dem das Ziel darin besteht, einen Pfad zwischen zwei Punkten in einem Diagramm zu finden. Das dritte Modell, Kommunikationsnetzwerke, ist ein Problem, bei dem das Ziel darin besteht, einen kürzesten Pfad zwischen zwei Knoten in einem Netzwerk zu finden. Das Video stellt zwei Algorithmen zur Lösung von Shortest-Path-Problemen vor: Tiefensuche und Divide and Conquer.

  • 00:35:00 Bei der Tiefensuche beginnt der Algorithmus mit dem Quellknoten und folgt der ersten Kante nach außen, um zu prüfen, ob sie sich an der richtigen Stelle befindet. Wenn nicht, folgt der Algorithmus der ersten Kante aus dem Knoten und fährt fort, Kanten in dieser Reihenfolge zu folgen, bis er entweder den Zielknoten findet oder keine Optionen mehr hat. In dem gegebenen Beispiel beginnt der Algorithmus am Quellknoten und folgt dem ersten Pfad den Suchbaum hinunter, wobei er Informationen entlang des Weges ausgibt. Wenn sich der Knoten nicht im Pfad befindet, folgt der Algorithmus dem ersten Pfad aus dem Knoten heraus und untersucht rekursiv die Kinder des Knotens, bis er einen Pfad zum Zielknoten findet.

  • 00:40:00 Dieses Video stellt das graphentheoretische Modell vor, das ein Weg ist zu verstehen, wie Lösungen für Probleme gefunden werden können. Das Modell basiert auf der Idee, dass ein Pfad eine Liste von Knoten ist und dass eine Tiefensuche verwendet werden kann, um eine Lösung zu finden. Das Modell wird mit zwei Beispielen illustriert. Das erste Beispiel zeigt, wie man einen Pfad von Boston nach Chicago findet, und das zweite Beispiel zeigt, wie man einen Pfad von Phoenix nach New York findet. Nach der Einführung in das Modell zeigt das Video, wie Sie mithilfe der Tiefensuche eine Lösung für ein Problem finden.

  • 00:45:00 Dieses Video zeigt, wie graphentheoretische Modelle verwendet werden können, um Optimierungsprobleme zu lösen. Das Video zeigt zunächst, wie ein Tiefensuchalgorithmus modifiziert werden kann, um die Summe der Gewichtungen an Kanten zu minimieren, und demonstriert dann, wie die Breitensuche verwendet werden kann, um einen kürzesten gewichteten Pfad zu finden.

  • 00:50:00 Dieses Video stellt graphentheoretische Modelle vor, die verwendet werden, um Beziehungen zwischen Variablen zu untersuchen.
3. Graph-theoretic Models
3. Graph-theoretic Models
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
 

Vorlesung 4. Stochastisches Denken



4. Stochastisches Denken

Prof. Guttag führt in stochastische Prozesse und grundlegende Wahrscheinlichkeitstheorie ein.

In diesem Video diskutiert der Referent den Unterschied in Wahrscheinlichkeitsrechnungen zwischen dem Problem, dass zwei Personen Geburtstag haben, und dem Problem, dass drei Personen Geburtstag haben. Er erklärt, dass das Komplementärproblem für zwei Personen einfach ist, da es nur um die Frage geht, ob alle Geburtstage unterschiedlich sind. Für drei Personen beinhaltet das Komplementärproblem jedoch eine komplizierte Disjunktion mit vielen Möglichkeiten, was die Mathematik viel komplexer macht. Der Referent zeigt, wie Simulationen verwendet werden können, um diese probabilistischen Fragen einfach zu beantworten, anstatt sich auf Berechnungen mit Bleistift und Papier zu verlassen. Er erörtert auch die Annahme, dass alle Geburtstage gleich wahrscheinlich sind, und wie die Verteilung von Geburtstagen in den USA nicht einheitlich ist, wobei bestimmte Daten häufiger oder ungewöhnlicher sind als andere. Schließlich zeigt der Redner dem Publikum eine Heatmap der Geburtstage von MIT-Studenten und kommt zu dem Schluss, dass die Anpassung des Simulationsmodells einfacher ist als die Anpassung des analytischen Modells, um eine ungleichmäßige Verteilung der Geburtsdaten zu berücksichtigen.

4. Stochastic Thinking
4. Stochastic Thinking
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Vorlesung 5. Random Walks



5. Random Walks

Dieses Video über Random Walks zeigt, wie wichtig es ist, sie zu studieren und zu verstehen, wie Simulation bei Programmierkonzepten in wissenschaftlichen und sozialen Disziplinen helfen kann. Der Sprecher beginnt damit, zu veranschaulichen, wie die Anzahl der Schritte, die ein Betrunkener macht, seine Entfernung vom Ursprung beeinflusst. Das Video stellt dann den voreingenommenen Random Walk und den masochistischen Betrunkenen vor und zeigt, wie der Simulations- und Iterationsprozess mit einfachen Plotbefehlen funktioniert. Der Referent betont, wie wichtig es ist, Simulationen schrittweise aufzubauen und Plausibilitätsprüfungen durchzuführen, um ihre Genauigkeit sicherzustellen, und schließt mit einer Diskussion über die Kunst, verschiedene Arten von Diagrammen zur Darstellung von Daten zu erstellen. Das Video stellt auch WormField als eine Möglichkeit vor, mehr Variation und Komplexität in der Simulation bereitzustellen.

  • 00:00:00 In diesem Abschnitt erklärt Guttag, warum Random Walks wichtig sind, und stellt als Beispiel das Konzept des Trunkenheitsgangs vor. Er stellt die Frage, ob es einen interessanten Zusammenhang zwischen der Anzahl der Schritte, die ein Trunkenbold macht, und ihrer Entfernung vom Ursprung gibt. Um dies zu veranschaulichen, gibt er ein kleines Beispiel und bittet das Publikum, eine Umfrage zu machen, ob je mehr Schritte der Betrunkene macht, desto weiter entfernt er sich wahrscheinlich, oder ob es egal ist, wie viele Schritte er macht. Guttag erwähnt auch, dass das Studium von Random Walks nützlich ist, um Prozesse in verschiedenen wissenschaftlichen und sozialen Disziplinen zu modellieren und um zu demonstrieren, wie Simulation helfen kann, die Welt um uns herum zu verstehen, während wichtige Themen im Zusammenhang mit Programmierung vermittelt werden.

  • 00:05:00 In diesem Abschnitt des Videos über Random Walks beginnt der Sprecher mit der Analyse der durchschnittlichen Entfernung, die eine betrunkene Person von ihrem Ausgangspunkt zurücklegen würde, nachdem sie ein oder zwei Schritte gemacht hätte. Mithilfe des Satzes des Pythagoras bestimmen sie, dass die betrunkene Person im Durchschnitt nach zwei Schritten weiter von ihrem Ausgangspunkt entfernt wäre. Anschließend analysieren sie, was nach 100.000 Schritten passiert, und greifen auf eine Simulation zurück, um die durchschnittliche Entfernung vom Ausgangspunkt von n Spaziergängen zu berechnen. Zur Vorbereitung auf die Simulation definiert der Sprecher einige nützliche Abstraktionen wie Ort, Feld und die betrunkene Person. Die Drunk-Klasse dient als Basisklasse, die verwendet wird, um zwei Unterklassen zu definieren, einschließlich der üblichen betrunkenen Unterklasse.

  • 00:10:00 In diesem Abschnitt lernen wir den voreingenommenen Random Walk kennen, bei dem ein Betrunkener einen Schritt machen kann, indem er entweder y erhöht, y verringert, x erhöht oder x verringert und nur einen zufällig zurückgibt. Der masochistische Betrunkene ist eine Unterklasse des gewöhnlichen Betrunkenen und zieht es vor, sich nach Norden zu bewegen, geht aber 1,1 Schritte im Vergleich zu einem Schritt vorwärts und nur 9/10 Schritte, wenn er sich nach Süden bewegt. Obwohl dies auf einen voreingenommenen Random Walk hindeutet, besteht Unveränderlichkeit, da Betrunkene und Orte unverändert bleiben. Felder sind jedoch änderbar, da sie über ein Wörterbuch betrunken ihrer Position im Feld zugeordnet werden. Um zu überprüfen, ob der Betrunkene da ist, oder um den Standort des Feldes zu ermitteln, verwenden wir Wertfehlermeldungen. Beim Aufruf von moveDrunk werden die Distanzen in x und y aus der takeStep-Funktion geholt und self.drunk dieser neuen Distanz zugewiesen.

  • 00:15:00 In diesem Abschnitt erklärt der Moderator, wie man Random Walks simuliert und wie man sie verwendet, um Fragen zu beantworten, wie sich verschiedene Arten von Betrunkenen bewegen. Die Simulation beinhaltet das Erstellen eines Feldes und das Hinzufügen von Betrunkenen, wobei die Betrunkenen eine unterschiedliche Anzahl von zufälligen Schritten auf dem Feld machen. Der Moderator zeigt, wie man einen einzelnen Spaziergang simuliert, und zeigt dann, wie man mehrere Spaziergänge simuliert, um Fragen zum Verhalten der Betrunkenen zu beantworten. Indem wir die Entfernungen mitteln, indem wir den Mittelwert, das Minimum oder das Maximum betrachten, können wir sehen, wie weit die verschiedenen Arten von Betrunkenen vom Ursprung entfernt sind. Der Moderator bespricht dann die Ergebnisse der Simulation und fragt, ob sie plausibel aussehen.

  • 00:20:00 In diesem Abschnitt betont Professor John Guttag die Bedeutung einer Plausibilitätsprüfung beim Erstellen einer Simulation. Er führt eine einfache Fallprüfung am Beispiel eines betrunkenen Mannes durch, der Schritte unternimmt, die einen Programmierfehler im Simulationscode aufdecken, der nicht sofort offensichtlich war. Nachdem der Fehler behoben wurde, führt Guttag die Simulation erneut aus, um die Ergebnisse zu überprüfen, und versichert den Zuschauern, dass das Bestehen einer Plausibilitätsprüfung nicht garantiert, dass eine Simulation korrekt ist, aber es ist ein guter Hinweis darauf, dass sie in gutem Zustand ist.

  • 00:25:00 In diesem Abschnitt beschreibt der Sprecher ein Experiment, in dem der normale Betrunkene mit einem masochistischen Betrunkenen verglichen wird, wobei erstere willkürlich Schritte unternimmt und die masochistische Version häufiger Schritte in die entgegengesetzte Richtung der vorherigen Richtung unternimmt. Das Experiment zeigt, dass der masochistische Betrunkene erheblich mehr Fortschritte macht als der normale Betrunkene, was bedeutet, dass ihre Bewegung in eine Richtung voreingenommen ist. Um zu verstehen, warum, verwendet der Redner Pylab, um die Trendlinie für jede Art von Betrunkenen zu zeichnen, um die Entfernung über die Zeit zu visualisieren, wobei PyLab die Bibliotheken NumPy, SciPy und MatPlotLib kombiniert, um MATLAB-ähnliche Plotfunktionen zu bieten. Der Referent erklärt auch die grundlegende Syntax der Plot-Funktion und ihre Argumente für Python.

  • 00:30:00 In diesem Abschnitt demonstriert der Referent, wie man Diagramme mit PyLab erstellt, mit Hilfe verschiedener Argumente, die mit den Plot- und Legend-Funktionen verwendet werden können. Er bringt auch seine Meinung zum Ausdruck, dass die Beherrschung der Kunst des Plottens eine wertvolle Fähigkeit ist. Darüber hinaus untersucht und zeigt der Sprecher Diagramme der Distanztrends zwischen einem gewöhnlichen Betrunkenen und einem masochistischen Betrunkenen. Der Sprecher entdeckt, dass sich der übliche Betrunkene ungefähr mit der Quadratwurzel der Anzahl der Schritte bewegt, während sich der masochistische Betrunkene-Trend in der Entfernung mit einer Rate von numSteps mal 0,05 bewegt. Der Referent schließt mit der Demonstration einer neuen Art von Diagramm, bei dem Datenpunkte durch Linien getrennt werden.

  • 00:35:00 In diesem Abschnitt erörtert der Referent, wie Visualisierung Einblicke in Daten geben kann. Indem er die Orte am Ende von Random Walks einzeichnet, demonstriert er, wie sich verschiedene Arten von Betrunkenen verhalten und welche Unterschiede zwischen ihnen bestehen. Er betont, wie wichtig es ist, Diagramme zu verwenden, um Daten zu verstehen, anstatt nur Tabellenkalkulationen von Endpunkten zu präsentieren. Der Sprecher stellt auch OddField vor, eine Unterklasse von Field mit Wurmlöchern, die den Aufenthaltsort eines Betrunkenen an einen anderen Ort teleportieren. Er erstellt ein Wörterbuch von Wurmlöchern mit zufälligen Orten, an die der Betrunkene teleportiert werden kann, was mehr Variabilität in der Simulation ermöglicht.

  • 00:40:00 In diesem Abschnitt des Videos erklärt der Ausbilder, wie die Random Walks verwendet werden, um die Bewegung eines Betrunkenen zu simulieren, und wie Wurmlöcher tiefgreifende Auswirkungen darauf haben, wo die Betrunkenen landen. Er betont auch, wie wichtig es ist, die Simulation schrittweise zu erstellen, beginnend mit der Definition der Klassen, dem Erstellen von Funktionen, die einem und mehreren Versuchen entsprechen, und dem Berichten der Ergebnisse. Er demonstriert außerdem, wie er einfache Zeichenbefehle verwendet, um verschiedene Arten von Diagrammen zu erstellen, die helfen, einen Einblick in die Simulation zu gewinnen.

  • 00:45:00 In diesem Abschnitt spricht der Sprecher über ein gemeinsames Paradigma, bei dem er ein für alle Mal einen Stil-Iterator einrichtet und n Stile definiert. Wenn er also eine neue Art von Betrunkenen entwerfen möchte, ruft er einfach den Stil-Iterator an um den nächsten Stil zu bekommen. Zu den Stilen gehören unter anderem die Markierung, die Linie, die Farbe und die Größe, die er gerne von ihren Standardeinstellungen ändert, um den Plot besser lesbar zu machen. Der Sprecher betont die Flexibilität dieses Ansatzes und ermutigt zum Experimentieren, um unterschiedliche Handlungsstile zu erreichen. In der nächsten Vorlesung wird er sich mit der Simulation anderer Phänomene befassen und die Glaubwürdigkeit einer Simulation diskutieren.
5. Random Walks
5. Random Walks
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Vorlesung 6. Monte-Carlo-Simulation



6. Monte-Carlo-Simulation

Das Video erklärt, wie die Monte-Carlo-Simulation funktioniert und wie sie zur Schätzung von Werten einer unbekannten Größe verwendet werden kann. Das Video erläutert, wie die Methode funktioniert und wie sie von unterschiedlichen Stichprobengrößen beeinflusst wird.

  • 00:00:00 In diesem Vortrag erklärt John Guttag, wie die Monte-Carlo-Simulation funktioniert und wie sie nützlich ist, um Werte einer unbekannten Größe zu schätzen. Er weist auch darauf hin, dass der Schlüssel zum Erfolg der Methode darin besteht, dass die aus der Grundgesamtheit gezogene Stichprobe tendenziell die Eigenschaften der Grundgesamtheit widerspiegelt, aus der sie gezogen wird.

  • 00:05:00 Das Video behandelt die Monte-Carlo-Simulation, bei der eine Stichprobe aus einer Population gezogen und analysiert wird, um das durchschnittliche Verhalten zu bestimmen. Im Beispiel wird eine Münze 100 Mal geworfen und Kopf oder Zahl ermittelt. Wenn Kopf festgestellt wird, wird die Wahrscheinlichkeit des nächsten Flips berechnet. Wenn Schwänze festgestellt werden, wird die Wahrscheinlichkeit des nächsten Flips basierend auf den verfügbaren Beweisen berechnet. Wird erneut „Kopf“ ermittelt, wird die Wahrscheinlichkeit des nächsten Wurfs basierend auf den verfügbaren Beweisen und der Annahme, dass die Münze fair ist, berechnet. Wenn ein drittes Mal Kopf bestimmt wird, basiert die Wahrscheinlichkeit des nächsten Wurfs auf der Annahme, dass die Münze fair ist, und den verfügbaren Beweisen. Da es keinen Grund zu der Annahme gibt, dass die Münze fair ist, ist die Wahrscheinlichkeit des nächsten Wurfs gering.

  • 00:10:00 In Monte-Carlo-Simulationen werden die unvorhersehbaren Ergebnisse zufälliger Ereignisse durch die Varianz der Ergebnisse erfasst. Mit zunehmender Varianz sinkt das Vertrauen in die Genauigkeit der Simulation. Roulette ist ein Spiel mit einer hohen Varianz, was bedeutet, dass Vorhersagen des Ergebnisses schwierig sind.

  • 00:15:00 In diesem Video wird eine Monte-Carlo-Simulation durchgeführt, um zu zeigen, dass die erwartete Rendite für eine Drehung eines Rouletterads 0 ist, wenn die Wahrscheinlichkeit des Ergebnisses jedes Mal gleich ist. Das Gesetz der großen Zahlen besagt, dass die Wahrscheinlichkeit, dass die Rendite von 0 abweicht, gegen 0 konvergiert, wenn die Anzahl der Versuche gegen unendlich geht.

  • 00:20:00 Der „Trugschluss des Spielers“ ist der Glaube, dass, wenn die eigenen Erwartungen in einer bestimmten Situation nicht erfüllt werden, dies in Zukunft behoben wird. Regression to the mean ist ein Begriff, der 1885 von Francis Galton geprägt wurde und beschreibt, wie nach einem extremen Ereignis (z. B. wenn die Eltern ungewöhnlich groß sind) das nächste zufällige Ereignis wahrscheinlich weniger extrem ist. Dieses Konzept ist auf Roulette anwendbar, wo, wenn jemand ein faires Rouletterad 10 Mal dreht und 10 Rote erhält, dies ein extremes Ereignis ist. Der Irrtum des Spielers würde sagen, dass die nächsten 10 Drehungen dazu führen sollten, dass mehr Schwarze gezogen werden, im Gegensatz zu der Wahrscheinlichkeit von 1,1024, die erwartet würde, wenn die Drehungen unabhängig wären. Professor Grimson ist nicht der Einzige, der schlechte Witze machen kann.

  • 00:25:00 In diesem Video erklärt John Guttag, wie die Regression zum Mittelwert funktioniert und warum sie beim Glücksspiel wichtig ist. Dann zeigt er, dass europäisches Roulette eine Unterklasse des fairen Roulettes ist, bei dem er dem Spiel eine zusätzliche Tasche, 0, hinzufügt. Diese zusätzliche Tasche wirkt sich auf die Chancen auf eine Zahl aus und bringt sie näher an 0 heran als beim amerikanischen Roulette, einer Unterklasse des europäischen Roulettes, bei der die Chancen immer gleich sind.

  • 00:30:00 Das Monte-Carlo-Simulationsverfahren wird verwendet, um Wahrscheinlichkeiten und Wahrscheinlichkeitsverhältnisse zu schätzen. Das Video zeigt, wie unterschiedliche Stichprobenumfänge die Genauigkeit der geschätzten Wahrscheinlichkeiten beeinflussen können. Die Mathematik hinter Varianz und Standardabweichung wird ebenfalls erklärt.

  • 00:35:00 Die Monte-Carlo-Simulation ist eine Methode zur Schätzung unbekannter Werte. Die Monte-Carlo-Simulation kann verwendet werden, um die erwartete Rendite beim Setzen auf ein Rouletterad, die erwartete Note bei einer Prüfung und die erwartete Stimmenzahl eines politischen Kandidaten zu schätzen. Die empirische Regel besagt, dass 68 % der Daten innerhalb einer Standardabweichung vor oder hinter dem Mittelwert liegen.

  • 00:40:00 Die empirische Regel besagt, dass wir ein hohes Maß an Vertrauen in den in einer Simulation berechneten Mittelwert haben sollten, wenn die Fehlerverteilung normal ist.

  • 00:45:00 Dieses Video erklärt die Wahrscheinlichkeitsdichtefunktion (PDF) und wie sie verwendet wird, um die Wahrscheinlichkeit zu berechnen, dass eine Zufallsvariable bestimmte Werte annimmt. Die Wahrscheinlichkeitsdichtefunktion ist symmetrisch um den Mittelwert und hat eine Spitze am Mittelwert, weshalb sie häufig verwendet wird, um die Wahrscheinlichkeit zu beschreiben, mit der eine Zufallsvariable einen bestimmten Wert annimmt. Der Anteil der Fläche unter der Kurve zwischen minus 1 und 1 beträgt ungefähr 68 %.
6. Monte Carlo Simulation
6. Monte Carlo Simulation
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Vorlesung 7. Konfidenzintervalle



7. Konfidenzintervalle

Dieses Video behandelt verschiedene Themen im Zusammenhang mit Statistik, einschließlich Normalverteilungen, dem zentralen Grenzwertsatz und der Schätzung des Pi-Werts mithilfe von Simulationen. Der Dozent verwendet Python, um zu demonstrieren, wie man Histogramme und Wahrscheinlichkeitsdichtefunktionen für Normalverteilungen zeichnet und wie man die Quadraturtechnik verwendet, um Integrale zu approximieren. Darüber hinaus betont der Referent, wie wichtig es ist, die Annahmen zu verstehen, die statistischen Methoden zugrunde liegen, und die Notwendigkeit von Genauigkeitsprüfungen, um die Gültigkeit von Simulationen sicherzustellen. Während Konfidenzintervalle statistisch gültige Aussagen liefern können, spiegeln sie nicht unbedingt die Realität wider, und es ist wichtig, Grund zu der Annahme zu haben, dass die Ergebnisse einer Simulation nahe am tatsächlichen Wert liegen.

  • 00:00:00 In diesem Abschnitt spricht der Dozent über die Annahmen, die der empirischen Regel zugrunde liegen, und wie Normalverteilungen in Python mithilfe der Zufallsbibliothek generiert werden. Sie demonstrieren, wie man eine diskrete Annäherung an eine Normalverteilung erstellt und wie man ein Histogramm mit gewichteten Bins zeichnet. Der Zweck der Gewichtung der Behälter besteht darin, jedem Artikel ein anderes Gewicht zu geben, damit die y-Achse entsprechend angepasst werden kann.

  • 00:05:00 In diesem Abschnitt erklärt der Kursleiter, wie Python verwendet wird, um Histogramme und Wahrscheinlichkeitsdichtefunktionen (PDFs) für Normalverteilungen darzustellen. Er zeigt den Code zum Erstellen eines Histogramms mit der Pylab-Bibliothek, wobei die y-Achse den Anteil der Werte anzeigt, die in einen bestimmten Bereich fallen. Anschließend definiert er PDFs und zeigt, wie man sie mit Python plottet. Die PDF-Kurve stellt die Wahrscheinlichkeit dar, dass eine Zufallsvariable zwischen zwei Werte fällt, wobei die Fläche unter der Kurve die Wahrscheinlichkeit dafür angibt. Der Kursleiter verwendet ein Beispiel für eine Standardnormalverteilung mit einem Mittelwert von null und einer Standardabweichung von eins.

  • 00:10:00 In diesem Abschnitt erläutert der Referent, wie eine Wahrscheinlichkeitsdichtefunktion (PDF) dargestellt wird, und interpretiert die Y-Werte im Diagramm. Die Y-Werte sind tatsächlich Dichten oder Ableitungen der kumulativen Verteilungsfunktion und keine tatsächlichen Wahrscheinlichkeiten, da sie 1 überschreiten oder negativ sein können. Der Referent betont, dass die Form der Kurve wichtiger ist als die Y-Werte selbst, da die Integration der Fläche unter der Kurve es uns erlaubt, die Wahrscheinlichkeiten zu bestimmen, dass Werte in einen bestimmten Bereich fallen. Anschließend stellt der Referent kurz den „integrate quad“-Algorithmus in der „scipy“-Bibliothek zur Integration vor.

  • 00:15:00 In diesem Abschnitt des Videos erläutert der Sprecher, wie man eine numerische Technik namens Quadratur verwendet, um Integrale zu approximieren. Er zeigt ein Beispiel für diese Technik mit der Funktion Gaussian, die drei Argumente akzeptiert, und demonstriert, wie sie zusammen mit einem Tupel, das alle Werte für die Argumente liefert, an die Quadraturfunktion übergeben werden. Der Sprecher testet dann die empirische Regel für die Gaußsche Funktion unter Verwendung zufälliger Werte für mu und sigma und zeigt, dass die Ergebnisse innerhalb des erwarteten Bereichs liegen, was die Gültigkeit der Regel demonstriert. Abschließend erläutert er die Bedeutung von Normalverteilungen und deren Verbreitung in vielen Bereichen.

  • 00:20:00 In diesem Abschnitt erörtert der Referent die Normalverteilung und ihre Anwendung auf verschiedene Szenarien, wie z. B. die Körpergröße von Männern und Frauen oder Änderungen des Ölpreises. Allerdings folgt nicht alles einer Normalverteilung, wie beispielsweise die Drehungen eines Rouletterads. Beim Umgang mit einer Reihe von Spins zeigt der Referent, wie der zentrale Grenzwertsatz gilt, der besagt, dass bei einer ausreichend großen Stichprobe aus einer Population die Mittelwerte der Stichproben normalverteilt sind und einen Mittelwert nahe dem der haben Bevölkerung.

  • 00:25:00 In diesem Abschnitt erklärt der Sprecher, wie die Varianz der Stichprobenmittelwerte mit der Varianz der Grundgesamtheit dividiert durch die Stichprobengröße zusammenhängt. Der Sprecher verwendet eine Simulation des mehrfachen Würfelns mit unterschiedlichen Würfelzahlen und zeigt, dass die Standardabweichung mit zunehmender Würfelzahl abnimmt. Zusätzlich zeigt der Referent, wie die Verteilung der Mittelwerte eine Normalverteilung bildet. Dies demonstriert die Nützlichkeit des zentralen Grenzwertsatzes. Der Referent überträgt dieses Konzept auch auf das Roulette-Spiel und zeigt, wie die Verteilung der mittleren Gewinne aus Roulette-Spins eine ähnliche Form wie eine Normalverteilung annimmt.

  • 00:30:00 In diesem Abschnitt geht der Referent darauf ein, wie unabhängig von der Form der Verteilung der Originalwerte das Central Limit Theorem (CLT) verwendet werden kann, um den Mittelwert mit ausreichend großen Stichproben zu schätzen. Der Referent erklärt, dass, selbst wenn die empirische Regel nicht vollkommen genau ist, sie nahe genug ist, um in den meisten Fällen nützlich zu sein. Darüber hinaus können Zufalls- und Monte-Carlo-Simulationen nützlich sein, um etwas zu berechnen, das von Natur aus nicht zufällig ist, wie z. B. den Wert von Pi. Dies wird durch eine historische Erklärung demonstriert, wie Menschen den Wert von Pi im Laufe der Geschichte geschätzt haben.

  • 00:35:00 In diesem Abschnitt diskutiert der Redner verschiedene Methoden, die verwendet wurden, um den Wert von Pi im Laufe der Geschichte zu schätzen. Zu den Methoden gehören die Konstruktion eines 96-seitigen Polygons und eine Monte-Carlo-Simulation, bei der Nadeln zufällig fallen gelassen werden, um den Wert von pi zu schätzen. Die Simulation verwendete eine mathematische Formel, um Pi zu schätzen, indem das Verhältnis von Nadeln in einem Kreis zu Nadeln in einem Quadrat ermittelt wurde. Der Redner erwähnt auch den Versuch, die Monte-Carlo-Methode mit einem Bogenschützen zu simulieren, und die Verwendung von Python, um eine Monte-Carlo-Simulation zu erstellen.

  • 00:40:00 In diesem Abschnitt erklärt der Referent, wie man Pi mithilfe einer Simulation schätzt und seine Genauigkeit mithilfe von Konfidenzintervallen bestimmt. Die Simulation beinhaltet das Werfen von Nadeln auf einen Boden und das Zählen, wie viele eine Linie überqueren, wobei mehr Nadeln zu besseren Schätzungen von Pi führen. Um die Genauigkeit zu bestimmen, wird die Standardabweichung berechnet, indem der Mittelwert der Schätzungen genommen und durch die Länge der Schätzungen dividiert wird. Eine Schleife wird dann verwendet, um die Anzahl der Nadeln weiter zu erhöhen, bis die Schätzung von pi innerhalb eines bestimmten Genauigkeitsbereichs liegt, was ein größeres Vertrauen in die Schätzung ermöglicht. Während Schätzungen von pi nicht monoton besser sind, wenn die Anzahl der Nadeln zunimmt, nehmen die Standardabweichungen monoton ab, was ein erhöhtes Vertrauen in die Schätzung schafft. Der Referent betont, dass es nicht ausreicht, eine gute Antwort zu liefern, sondern Grund zu der Annahme zu haben, dass die Antwort dem tatsächlichen Wert nahe kommt.

  • 00:45:00 In diesem Abschnitt diskutiert der Sprecher den Unterschied zwischen statistisch validen Aussagen und wahren Aussagen. Während eine Simulation uns statistisch gültige Konfidenzintervalle liefern kann, spiegelt sie die Realität möglicherweise nicht genau wider. Der Sprecher führt einen Fehler in seine Simulation ein, indem er 4 durch 2 ersetzt, und obwohl die Konfidenzintervalle gültig sind, ist die Schätzung von pi völlig falsch. Um die Genauigkeit der Simulation sicherzustellen, muss eine Plausibilitätsprüfung durchgeführt werden. Die allgemein nützliche Technik der zufälligen Punktstichprobe wird zum Schätzen der Fläche einer beliebigen Region eingeführt und als Beispiel dafür verwendet, wie Zufälligkeit verwendet werden kann, um etwas zu berechnen, das nicht von Natur aus zufällig ist, wie z. B. Integration.
7. Confidence Intervals
7. Confidence Intervals
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Vorlesung 8. Stichprobenziehung und Standardfehler



8. Stichprobe und Standardfehler

Dieses Video zum Thema "Stichproben und Standardfehler" behandelt verschiedene Konzepte der Inferenzstatistik mit Schwerpunkt auf Stichprobenverfahren zum Schätzen von Populationsparametern. Das Video untersucht Wahrscheinlichkeitsstichproben und einfache Zufallsstichproben sowie geschichtete Stichproben und erörtert den zentralen Grenzwertsatz, der sich auf die Konsistenz von Mittelwerten und Standardabweichungen über Zufallsstichproben aus einer Grundgesamtheit bezieht. Das Video befasst sich auch mit Themen wie Fehlerbalken, Konfidenzintervallen, Standardabweichung und Standardfehler, Auswahl geeigneter Stichprobengrößen und Verteilungstypen. Der Referent betont, wie wichtig es ist, den Standardfehler zu verstehen, da dies hilft, die Populationsstandardabweichung zu schätzen, ohne die gesamte Population zu untersuchen, und dass dies ein in verschiedenen Abteilungen viel diskutiertes Konzept ist.

  • 00:00:00 In diesem Abschnitt behandelt der Kursleiter das Thema Stichprobenziehung in Bezug auf Inferenzstatistik. Die Kernidee besteht darin, eine oder mehrere Zufallsstichproben aus einer Grundgesamtheit zu untersuchen, um Hinweise auf diese Grundgesamtheit zu erhalten. Der Kursleiter bespricht die Wahrscheinlichkeitsstichprobe, bei der jedes Mitglied der Grundgesamtheit eine Wahrscheinlichkeit ungleich Null hat, in eine Stichprobe aufgenommen zu werden. Einfache Zufallsstichproben werden eingehend untersucht, was erfordert, dass jedes Mitglied der Bevölkerung die gleiche Wahrscheinlichkeit hat, in die Stichprobe aufgenommen zu werden. Der Kursleiter weist jedoch darauf hin, dass geschichtete Stichproben in bestimmten Situationen erforderlich sein können, z. B. wenn eine Grundgesamtheit nicht gleichmäßig verteilt ist und Untergruppen aufgeteilt und proportional in der Stichprobe repräsentiert werden müssen.

  • 00:05:00 In diesem Abschnitt wird das Konzept der geschichteten Stichprobenziehung als Methode zur Stichprobenziehung kleiner Untergruppen eingeführt, die proportional zu ihrer Größe in der Grundgesamtheit vertreten sein müssen. Als Beispiel wird die Verwendung geschichteter Stichproben genannt, um sicherzustellen, dass Architekturstudenten vertreten sind. Es kann jedoch schwierig sein, eine geschichtete Stichprobe korrekt durchzuführen, daher wird sich dieser Kurs auf einfache Zufallsstichproben beschränken. Der Kurs bietet einen Beispieldatensatz der täglichen Höchst- und Tiefsttemperaturen für 21 US-Städte von 1961-2015. Die Daten werden mithilfe von Histogrammen visualisiert, die zeigen, dass die Daten nicht normalverteilt sind. Die mittlere Tageshöchsttemperatur beträgt 16,3 Grad Celsius mit einer Standardabweichung von etwa 9,4 Grad.

  • 00:10:00 In diesem Abschnitt diskutiert das Video die Idee des Samplings und seine Beziehung zur Bevölkerung als Ganzes. Durch die Entnahme von Zufallsstichproben der Größe 100 aus einer Grundgesamtheit und den Vergleich der Mittelwerte und Standardabweichungen zeigt das Video, dass zwar einzelne Stichproben von der Grundgesamtheit abweichen können, die Mittelwerte und Standardabweichungen jedoch aufgrund des zentralen Grenzwertsatzes insgesamt mit der Grundgesamtheit übereinstimmen . Durch Ausführen einer Simulation mit tausend Stichproben zeigt das Video, dass der Mittelwert der Stichprobenmittel 16,3 und die Standardabweichung 0,94 beträgt, was ein 95-%-Konfidenzintervall von 14,5 bis 18,1 ergibt. Obwohl das Konfidenzintervall breit ist, enthält es den Mittelwert der Grundgesamtheit.

  • 00:15:00 In diesem Abschnitt erläutert das Video Möglichkeiten, eine engere Grenze für die Schätzung des tatsächlichen Mittelwerts der Grundgesamtheit zu erhalten. Sowohl das Ziehen von mehr Proben als auch das Entnehmen von größeren Proben werden in Betracht gezogen. Die Durchführung eines Experiments mit einer von 100 auf 200 erhöhten Stichprobengröße führte zu einem ziemlich dramatischen Rückgang der Standardabweichung von 0,94 auf 0,66, was darauf hindeutet, dass größere Stichprobenumfänge dazu beitragen können, eine genauere Schätzung zu erhalten. Die Verwendung von Fehlerbalken zur Visualisierung der Variabilität von Daten wird ebenfalls eingeführt. Konfidenzintervalle können verwendet werden, um zu bestimmen, ob die Mittelwerte statistisch signifikant unterschiedlich sind oder nicht. Überlappen sich die Konfidenzintervalle nicht, kann auf signifikante Unterschiede der Mittelwerte geschlossen werden. Wenn sie sich überschneiden, sind weitere Untersuchungen erforderlich.

  • 00:20:00 In diesem Abschnitt erläutert der Referent, wie Fehlerbalken mit dem PyLab-Paket in Python gezeichnet werden. Indem man die Standardabweichung multipliziert mit 1,96 verwendet, kann man Fehlerbalken erstellen, die den Mittelwert und das Konfidenzniveau der Schätzung zeigen. Mit zunehmender Stichprobengröße werden die Fehlerbalken kleiner, was ein größeres Vertrauen, aber nicht unbedingt eine bessere Genauigkeit bietet. Durch die Verwendung des zentralen Grenzwertsatzes kann die Verwendung einer einzelnen Stichprobe jedoch immer noch wertvolle Erkenntnisse liefern, auch wenn die Betrachtung mehrerer Stichproben mit großen Stichprobenumfängen möglicherweise überflüssig ist.

  • 00:25:00 In diesem Abschnitt diskutiert das Video den dritten Teil des zentralen Grenzwertsatzes, der besagt, dass die Varianz der Stichprobenmittelwerte nahe der Varianz der Grundgesamtheit dividiert durch die Stichprobengröße sein wird. Dies führt zur Berechnung des Standardfehlers des Mittelwerts, der gleich der Populationsstandardabweichung dividiert durch die Quadratwurzel des Stichprobenumfangs ist. Das Video verwendet einen Code, um zu testen, ob der Standardfehler des Mittelwerts funktioniert, und zeigt, dass die Standardabweichung den Standardfehler sehr gut verfolgt, wodurch es nützlich ist, die Standardabweichung durch Berechnung des Standardfehlers zu schätzen. Der Unterschied zwischen der Standardabweichung und dem Standardfehler besteht darin, dass zur Berechnung der ersteren viele Stichproben betrachtet werden müssen und für die letztere nur eine Stichprobe erforderlich ist.

  • 00:30:00 In diesem Abschnitt erörtert der Referent das Konzept des Standardfehlers, der eine Möglichkeit darstellt, die Standardabweichung einer Grundgesamtheit anzunähern, ohne mehrere Stichproben zu nehmen. Die Formel für den Standardfehler beinhaltet die Standardabweichung der Grundgesamtheit, diese ist jedoch normalerweise nicht bekannt, da dies eine Untersuchung der gesamten Grundgesamtheit erfordern würde. Stattdessen wird häufig die Standardabweichung der Stichprobe als Schätzung verwendet. Der Referent demonstriert, dass die Standardabweichung der Stichprobe bei größeren Stichprobenumfängen eine relativ genaue Annäherung an die Standardabweichung der Grundgesamtheit ist. Es wird jedoch darauf hingewiesen, dass dies für verschiedene Arten von Verteilungen und größere Populationen möglicherweise nicht immer zutrifft.

  • 00:35:00 In diesem Abschnitt behandelt das Video verschiedene Verteilungen, darunter gleichmäßige, normale oder Gaußsche und exponentielle Verteilungen, und zeigt die diskreten Annäherungen an diese Verteilungen. Die Differenz zwischen der Standardabweichung und der Standardabweichung der Stichprobe ist nicht für alle diese Verteilungen gleich, wobei die Exponentialabweichung der ungünstigste Fall ist. Schiefe, ein Maß für die Asymmetrie einer Wahrscheinlichkeitsverteilung, ist ein wichtiger Faktor bei der Entscheidung, wie viele Stichproben zum Schätzen der Grundgesamtheit benötigt werden. Darüber hinaus offenbart das Video einen kontraintuitiven Befund, dass die Größe der Population keine Rolle spielt, wenn es darum geht, die Anzahl der benötigten Proben zu bestimmen.

  • 00:40:00 In diesem Abschnitt erörtert der Referent die Bedeutung der Auswahl einer geeigneten Stichprobengröße, um den Mittelwert einer Grundgesamtheit bei einer einzelnen Stichprobe zu schätzen. Er betont, dass die Auswahl der richtigen Stichprobengröße wesentlich ist, um eine genaue Antwort zu erhalten und die Verwendung einer zu kleinen Stichprobengröße zu vermeiden. Sobald eine Stichprobengröße ausgewählt ist, wird eine Zufallsstichprobe aus der Grundgesamtheit entnommen, um den Mittelwert und die Standardabweichung der Stichprobe zu berechnen. Unter Verwendung des aus der Stichprobe generierten geschätzten Standardfehlers werden Konfidenzintervalle um den Stichprobenmittelwert herum generiert. Der Referent weist darauf hin, dass diese Methode nur funktioniert, wenn unabhängige Stichproben gewählt werden, und zeigt, wie die Wahl abhängiger Stichproben zu falschen Ergebnissen führen kann. Abschließend demonstriert er ein Beispielexperiment zur Berechnung des Anteils außerhalb des 95-%-Konfidenzintervalls und betont, dass fünf Prozent das optimale Ergebnis sind.

  • 00:45:00 In diesem Abschnitt erörtert der Referent, wie wichtig es ist, das Konzept des Standardfehlers in der statistischen Analyse zu verstehen. Er betont, dass die Wahrscheinlichkeitsrechnung falsch ist, wenn die Antwort zu gut oder zu schlecht ist. Um zu demonstrieren, wie der Standardfehler funktioniert, führt er eine Simulation durch und zeigt, dass der Anteil außerhalb des 95-%-Konfidenzintervalls sehr nahe am erwarteten Wert von 5 % liegt. Abschließend betont der Referent die Bedeutung des Standardfehlers und dass er ein vieldiskutiertes Konzept in verschiedenen Abteilungen ist.
8. Sampling and Standard Error
8. Sampling and Standard Error
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: John GuttagPro...
 

Vorlesung 9. Experimentelle Daten verstehen



9. Experimentelle Daten verstehen

In diesem Vortrag erörtert Professor Eric Grimson den Prozess des Verständnisses experimenteller Daten, von der Datenerfassung bis zur Verwendung von Modellen zur Erstellung von Vorhersagen. Am Beispiel einer Feder demonstriert er die Bedeutung der Messgenauigkeit bei der Vorhersage linearer Zusammenhänge und untersucht verschiedene Methoden zur Messung der Anpassungsgüte. Grimson führt das Konzept der linearen Regression und Polynomanpassungen ein und betont, dass ein hoher r-Quadrat-Wert nicht unbedingt bedeutet, dass ein Polynom höherer Ordnung die beste Wahl ist. Grimson verwendet Code, um über einen 16-dimensionalen Raum zu optimieren, und lässt die Wahl, ob dieses Polynom für die nächste Vorlesung verwendet werden soll oder nicht.

  • 00:00:00 In diesem Abschnitt des Vortrags erörtert Professor Eric Grimson die Bedeutung des Verständnisses experimenteller Daten in der heutigen datenintensiven Welt. Er betont, dass Sie, egal ob Sie Wissenschaftler, Ingenieur, Sozialwissenschaftler oder in einem anderen Beruf sind, der mit Daten zu tun hat, Software benötigen, die Daten manipulieren kann, um nützliche Informationen zu extrahieren. Er spricht auch über den Prozess der Durchführung eines Experiments, der Gewinnung von Daten und der Verwendung von Modellen, um Vorhersagen über die Daten zu treffen. Am Beispiel einer Quelle erklärt er, wie man Daten darüber sammelt, modelliert und Software schreibt, die bei der Analyse der Daten helfen kann.

  • 00:05:00 In diesem Abschnitt wird das Konzept des Hookeschen Elastizitätsgesetzes eingeführt. Das Gesetz besagt, dass die Kraft, die zum Zusammendrücken oder Dehnen einer Feder erforderlich ist, linear mit der Entfernung korreliert, um die sie zusammengedrückt oder gedehnt wird. Das negative Vorzeichen bedeutet, dass die Kraft in die entgegengesetzte Richtung der Kompression oder Streckung ausgeübt wird. Das Hookesche Gesetz gilt für eine Vielzahl von Federn, hat jedoch eine Grenze dafür, wie stark eine Feder gedehnt werden kann, bevor das Gesetz zusammenbricht. Als Beispiel wird die Berechnung der Kraft angegeben, die erforderlich ist, um eine Feder um einen Zentimeter zusammenzudrücken, wobei das Hookesche Gesetz und die Federkonstante verwendet werden.

  • 00:10:00 In diesem Abschnitt erläutert der Referent den Vorgang der Bestimmung der Federkonstante durch Messungen unterschiedlicher Massen an einer Feder. Idealerweise würde eine einzelne Messung ausreichen, aber da Massen unzuverlässig sein können und Federn unvollkommene Materialien enthalten können, sind mehrere Versuche erforderlich, um eine Reihe von Messungen mit einer linearen Beziehung zu erstellen, die zum Extrahieren der Federkonstante grafisch dargestellt werden kann. Der Referent demonstriert die Verwendung einer Array-Funktion, um alle Werte gleichmäßig zu skalieren, bevor die Datenpunkte grafisch dargestellt werden. Die ideale lineare Beziehung würde es Forschern ermöglichen, Rasterkraftmikroskope zu kalibrieren und Kräfte in biologischen Strukturen zu messen.

  • 00:15:00 In diesem Abschnitt erläutert der Sprecher, wie man eine Linie an experimentelle Daten anpasst und den Abstand zwischen der Linie und den gemessenen Punkten misst. Sie erklären, dass eine Zielfunktion benötigt wird, um zu bestimmen, wie gut die Linie passt, was durch Finden der Linie erfolgt, die die Zielfunktion minimiert. Der Sprecher erwägt auch verschiedene Möglichkeiten, den Abstand zu messen, wie beispielsweise die Verschiebung entlang der x-Achse, die Verschiebung vertikal oder die Entfernung zum nächsten Punkt auf der Linie. Sie wählen letztendlich die vertikale Verschiebung, da sie den abhängigen Wert misst, der bei einem neuen unabhängigen Wert vorhergesagt wird.

  • 00:20:00 In diesem Abschnitt erklärt Eric Grimson, wie die Genauigkeit einer vorhergesagten Linie mit der Methode der kleinsten Quadrate gemessen wird. Das Verfahren umfasst das Ermitteln der Differenz zwischen den vorhergesagten und beobachteten y-Werten, deren Quadrierung, um das Vorzeichen zu eliminieren, und die anschließende Summierung dieser quadrierten Differenzen für alle beobachteten Werte. Diese Summe liefert ein Maß dafür, wie die Linie zu den beobachteten Werten passt. Durch Minimieren der Summenquadratdifferenz kann man die am besten passende Gerade finden. Darüber hinaus erläutert Grimson, wie man die am besten passende Kurve findet, indem man annimmt, dass das Modell der vorhergesagten Kurve ein Polynom ist, und die lineare Regressionstechnik verwendet, um das Polynom ersten oder zweiten Grades zu finden, das am besten zu den Daten passt.

  • 00:25:00 In diesem Abschnitt wird das Konzept der linearen Regression als Methode zum Finden des tiefsten Punktes auf einer Oberfläche eingeführt, die durch alle möglichen Linien in einem zweidimensionalen Raum dargestellt werden kann. Die lineare Regression wird verwendet, um die am besten passende Linie zu finden, indem man an einem bestimmten Punkt beginnt und entlang der Steigung ein Stück bergab geht, die neue Steigung misst und dies wiederholt, bis der niedrigste Punkt erreicht ist. Der Algorithmus dafür ist dem Newton-Verfahren sehr ähnlich. Der Abschnitt behandelt auch die Verwendung von polyFit, einer integrierten PyLab-Funktion, um die Koeffizienten eines Polynoms mit einem bestimmten Grad zu finden, der die beste Anpassung nach der Methode der kleinsten Quadrate liefert.

  • 00:30:00 In diesem Abschnitt demonstriert der Moderator, wie man mit Python eine Linie an Daten anpasst und wie man die Reihenfolge des verwendeten Polynoms ändert. Sie erklären, dass je höher die Ordnung des verwendeten Polynoms ist, desto besser wird die Anpassung an die Daten sein. Der Moderator bietet ein visuelles Beispiel für einen Datensatz, bei dem das Anpassen einer Linie nicht funktioniert und das Anpassen einer quadratischen Linie besser geeignet ist. Sie erklären auch, wie man die Polyval-Funktion verwendet, um ein beliebiges Ordnungspolynom anzupassen und ein Array von vorhergesagten Werten zurückzugeben, was die abstrakte Natur des Codes demonstriert.

  • 00:35:00 In diesem Abschnitt erläutert der Sprecher, wie die Anpassungsgüte experimenteller Daten gemessen werden kann. Um verschiedene Modelle zu vergleichen, schlägt er vor, den durchschnittlichen quadratischen Fehler zu messen, da dieser Ansatz für den Vergleich zweier Modelle nützlich ist. Dieses Verfahren weist jedoch ein Problem auf, da es keine endgültige Möglichkeit bietet, festzustellen, ob eine Anpassung wirklich besser ist als eine andere Anpassung. Um dieses Problem anzugehen, empfiehlt der Referent die Verwendung des Bestimmtheitsmaßes (r-Quadrat), das skalenunabhängig ist und angeben kann, wie nahe eine Anpassung an eine perfekte Anpassung heranreicht. Er stellt eine Formel zur Berechnung von r-Quadrat zur Verfügung, bei der die Differenz zwischen den beobachteten und vorhergesagten Werten und dem mittleren Fehler gemessen wird.

  • 00:40:00 In diesem Abschnitt erklärt der Referent, wie die Varianz und der r-Quadrat-Wert berechnet werden, um die Genauigkeit eines Modells zu bewerten. Die Varianz erhält man, indem man die Summe der quadrierten Fehler durch die Anzahl der Stichproben dividiert. Der r-Quadrat-Wert gibt an, wie viel der Variabilität in den Daten durch das Modell erklärt wird, und liegt zwischen null und eins. Ein r-Quadrat von eins bedeutet, dass das Modell die gesamte Variabilität erklärt, während ein r-Quadrat von null bedeutet, dass es keine Beziehung zwischen dem Modell und den Daten gibt. Der Referent stellt dann zwei Funktionen vor, genFits und testFits, die Modelle mit unterschiedlichen Komplexitätsgraden generieren und testen und die entsprechenden r-Quadrat-Werte zurückgeben. Diese Funktionen können dabei helfen, die beste Anpassung für einen Datensatz zu ermitteln.

  • 00:45:00 In diesem Abschnitt führt der Kursleiter Code mit quadratischen, quartischen, polynomischen Anpassungen 8. und 16. Ordnung aus, um die beste Anpassung für die Daten zu bestimmen. Sie erklären, dass die Verwendung des PyLab-Codes es ihnen ermöglicht, über einen 16-dimensionalen Raum zu optimieren und eine lineare Regression zu verwenden, um die beste Lösung zu finden. Obwohl das Polynom 16. Ordnung hervorragende Arbeit leistet und einen r-Quadrat-Wert von fast 97 % hat, warnt der Kursleiter, dass ein hoher r-Quadrat-Wert nicht unbedingt bedeutet, dass die Verwendung eines Polynoms 16. Ordnung die beste Wahl ist. Die Entscheidung, ob sie es nutzen oder nicht, überlassen sie der nächsten Vorlesung.
9. Understanding Experimental Data
9. Understanding Experimental Data
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...
 

Vorlesung 10. Experimentelle Daten verstehen (Fortsetzung)



10. Experimentelle Daten verstehen (Fortsetzung)

In diesem Abschnitt des Videos betont der Moderator, wie wichtig es ist, das richtige Modell für die Anpassung an experimentelle Daten zu finden und gleichzeitig eine Überanpassung zu vermeiden. Mehrere Methoden werden diskutiert, wie z. B. die Verwendung von Kreuzvalidierung, um das richtige Gleichgewicht zwischen Modellkomplexität und Effektivität bei der Vorhersage neuer Daten zu bestimmen. Der Referent liefert Beispiele für die Anpassung von Modellen unterschiedlicher Ordnung an experimentelle Daten und demonstriert die Auswirkungen der Überanpassung durch Hinzufügen von Rauschen zu Datensätzen. Der R-Quadrat-Wert wird auch als Werkzeug eingeführt, um zu bestimmen, wie gut ein Modell zu den Daten passt. Insgesamt wird die Bedeutung des Ausgleichs von Modellkomplexität und Effektivität bei der Vorhersage neuer Daten hervorgehoben.

  • 00:00:00 In diesem Abschnitt erinnert der Kursleiter die Schüler daran, dass sie zuvor das Konzept der Anpassung von Modellen an experimentelle Daten besprochen haben, um die Daten zu verstehen. Das Ziel ist ein Modell, das die den Daten zugrunde liegenden Phänomene erklärt und Vorhersagen über das Verhalten in neuen Umgebungen treffen kann. Da Daten jedoch immer verrauscht sind, müssen experimentelle Unsicherheiten bei der Anpassung des Modells berücksichtigt werden. Der Kursleiter fasst die Verwendung von Polynomausdrücken, insbesondere der linearen Regression, zusammen, um Koeffizienten zu finden, die die Unterschiede zwischen beobachteten und vorhergesagten Daten minimieren.

  • 00:05:00 In diesem Abschnitt wird das Konzept der linearen Regression im Detail untersucht. Die Idee hinter der linearen Regression besteht darin, alle möglichen Linien in einem Raum darzustellen, der einen Zugang mit a-Werten und den anderen Zugang mit B-Werten hat, wobei der Wert oder die Höhe der Oberfläche an jedem Punkt der Wert dieser Zielfunktion ist. Die Idee ist, an einem Punkt auf dieser Oberfläche zu beginnen und bergab zu gehen, bis Sie den Boden erreichen, wo es immer einen unteren Punkt gibt, und sobald dieser Punkt erreicht ist, ergeben die a- und B-Werte die beste Linie. Der Abschnitt schließt mit einer Erörterung der Koeffizientenbestimmung R zum Quadrat, bei dem es sich um einen skalenunabhängigen Wert zwischen 0 und 1 handelt, der misst, wie gut ein Modell an die Daten angepasst ist.

  • 00:10:00 In diesem Abschnitt erörtert der Sprecher die Bedeutung des R-Quadrat-Werts beim Anpassen von Modellen an experimentelle Daten. Der R-Quadrat-Wert gibt an, wie gut das Modell zu den Daten passt, wobei ein Wert von 1 eine perfekte Anpassung und ein Wert nahe 0 eine schlechte Anpassung anzeigt. Während ein Modell höherer Ordnung besser zu den Daten passt, ist es nicht unbedingt das beste Modell, um die Phänomene zu erklären oder Vorhersagen zu treffen. Der Referent erklärt auch, wie er die Daten für sein Beispiel mit einer Parabelfunktion mit zusätzlichem Rauschen generiert hat.

  • 00:15:00 zusammenfassen. In diesem Abschnitt erläutert der Referent, wie die Wirksamkeit eines Modells mithilfe von Validierung oder Kreuzvalidierung getestet werden kann. Sie generieren Daten aus einem Parabelbogen mit zusätzlichem Rauschen und passen Modelle für Grad 2, 4, 8 und 16 mit zwei verschiedenen Datensätzen an. Das am besten passende Modell ist immer noch Ordnung 16, aber das Rätsel ist, warum ein Polynom 16. Ordnung die beste Anpassung ist, wenn Daten aus einem Polynom 2. Grades generiert wurden. Der Referent erklärt, dass ein kleiner Trainingsfehler für ein großartiges Modell notwendig, aber nicht ausreichend ist, und dass eine Validierung oder Kreuzvalidierung erforderlich ist, um zu sehen, wie gut das Modell bei verschiedenen Daten abschneidet, die aus demselben Prozess generiert werden.

  • 00:20:00 In diesem Abschnitt erörtert der Sprecher die Verwendung experimenteller Daten und wie man ein Modell daran anpasst. Sie untersuchen auch die Bedeutung des Testens von Modellen an verschiedenen Datensätzen sowie das Potenzial für eine Überanpassung, wenn zu viele Freiheitsgrade in einem Modell verwendet werden. Anhand ihres Beispiels zeigen sie, dass Modelle niedriger Ordnung (z. B. Ordnung 2 oder 4) für die Verhaltensvorhersage tatsächlich effektiver sein können als Modelle höherer Ordnung (z. B. Ordnung 16) und dass es wichtig ist, Modelle an mehreren Datensätzen zu testen, um dies sicherzustellen dass sie nicht zu komplex sind.

  • 00:25:00 In diesem Abschnitt warnt der Redner vor den Gefahren einer Überanpassung an Daten, bei der ein Modell so perfekt auf Trainingsdaten abgestimmt ist, dass es nicht an neue Datensätze angepasst werden kann. Er erklärt, wie man die Validierung nutzt, um Overfitting zu erkennen, und warum höhere Ordnungen von Eingabevariablen in manchen Fällen unnötig sind. Er demonstriert ein Beispiel für die Anpassung eines quadratischen Modells an eine Linie und zeigt, dass das System den Koeffizienten mit höherem Term ablehnt, da es mit der Anpassung des Rauschens beginnt, was zu einer weniger effektiven Anpassung führt. Das Beispiel des Sprechers passt ein Quadrat an eine Linie an und zeigt, wie das Modell perfekt funktioniert, bis ein Punkt hinzugefügt wird, der dazu führt, dass das System das Rauschen perfekt anpasst und daher effektiv neue Werte vorhersagt.

  • 00:30:00 In diesem Abschnitt stellt der Referent das Konzept der Überanpassung vor und demonstriert seine Auswirkungen, indem er einem Datensatz eine kleine Menge Rauschen hinzufügt und sowohl ein quadratisches als auch ein Modell ersten Grades anpasst. Es zeigt sich, dass das quadratische Modell mit dem hinzugefügten Rauschen nicht gut abschneidet, wohingegen das Modell ersten Grades widerstandsfähiger ist. Der Referent betont, dass es entscheidend ist, die richtige Balance zwischen einem übermäßig komplexen Modell und einem unzureichend komplexen Modell zu finden, um Ergebnisse genau vorherzusagen. Der Abschnitt schließt mit einer vorgeschlagenen Methode zum Finden des richtigen Modells.

  • 00:35:00 In diesem Abschnitt erläutert das Video, wie man das beste Modell für einen gegebenen Datensatz bestimmt, insbesondere in Fällen, in denen es keine Theorie gibt, die die Auswahl leitet. Ein Ansatz besteht darin, die Ordnung des Modells zu erhöhen, bis es gute Arbeit bei der Vorhersage neuer Daten leistet, aber die ursprünglichen Trainingsdaten nicht überanpasst. Als Beispiel zeigt das Video, wie das Hookesche Gesetz auf das Dehnen einer Feder angewendet wird, und zeigt, dass für verschiedene Segmente der Daten unterschiedliche lineare Modelle benötigt werden, wodurch die Bedeutung einer angemessenen Segmentierung der Daten hervorgehoben wird. Kreuzvalidierung, einschließlich Auslassungsvalidierung und K-Fold-Validierung, kann auch bei der Auswahl der Modellkomplexität helfen, wenn es um größere Datensätze geht.

  • 00:40:00 In diesem Abschnitt erklärt der Referent, wie man Kreuzvalidierung verwendet, um das beste Modell zur Vorhersage der mittleren Tageshöchsttemperatur in den USA über einen Zeitraum von 55 Jahren zu bestimmen. Sie verwenden wiederholte Zufallsstichproben, um zufällige Stichproben aus dem Datensatz auszuwählen, ein Modell auf dem Trainingssatz zu trainieren und es auf dem Testsatz zu testen. Sie berechnen auch Jahresmittelwerte für die hohe Temperatur, um sie zu zeichnen und Modelle mit linearen, quadratischen, kubischen und quartischen Dimensionen zu erstellen, wobei sie mit einer Hälfte der Daten trainieren, mit der anderen Hälfte testen und das zu erhaltende Bestimmtheitsmaß aufzeichnen ein Durchschnitt. Sie geben die Mittelwerte für jede Dimensionalität an.

  • 00:45:00 In diesem Abschnitt demonstriert der Moderator, wie der Datensatz mithilfe einer zufälligen Punktstichprobenmethode zufällig in Trainings- und Testsätze aufgeteilt wird. Anschließend durchläuft er eine Schleife, in der er verschiedene Trainings- und Testsätze einrichtet und dann jede Dimension mithilfe einer Polynomanpassung anpasst. Das Modell kann dann verwendet werden, um die Testsatzwerte vorherzusagen und sie mit den tatsächlichen Werten zu vergleichen, den R-Quadrat-Wert zu berechnen und hinzuzufügen. Er kommt zu dem Schluss, dass mehrere Versuche durchgeführt werden müssen, um Statistiken zu diesen Versuchen sowie Statistiken zu erhalten jeder Versuch. Dadurch können sie das einfachste Modell auswählen, das die Daten berücksichtigt.

  • 00:50:00 In diesem Abschnitt erörtert der Referent die Komplexität von Modellen, die neue Daten basierend auf experimentellen Daten effektiv vorhersagen können. Diese Komplexität kann aus der Theorie oder aus der Kreuzvalidierung stammen, um das einfachste Modell zu bestimmen, das immer noch gute Arbeit bei der Vorhersage von Out-of-Data-Verhalten leistet.
10. Understanding Experimental Data (cont.)
10. Understanding Experimental Data (cont.)
  • 2017.05.19
  • www.youtube.com
MIT 6.0002 Introduction to Computational Thinking and Data Science, Fall 2016View the complete course: http://ocw.mit.edu/6-0002F16Instructor: Eric GrimsonPr...