Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3339

 
СанСаныч Фоменко #:

Geben Sie die Gewohnheit auf, nur die Schlagzeilen zu lesen: Ein Buch ist kein Twitter-Post.

Ich habe mehr als die Hälfte des Buches gelesen, so dass ich den Inhalt selbst beurteilen kann; es gibt Abschnitte, die zu 80 % aus Code bestehen.

Hier ist eine Liste der Pakete, die beim Schreiben des Codes im Buch verwendet wurden.

Inhaltlich ist das Buch eine systematische Darstellung der Probleme und Lösungen des so genannten "maschinellen Lernens", was an dieser Stelle sehr nützlich ist, da unter "maschinellem Lernen" meist nur ein Modell verstanden wird.

Ja, es ist ein gutes Buch.

Da Sie es zur Hälfte gelesen haben.

Du könntest wahrscheinlich eine Zeile Code schreiben.

Was ist Ihnen am meisten im Gedächtnis geblieben?

P.Z..

Ich empfehle jedem, das Buch zu lesen.

 
Maxim Dmitrievsky #:
Statistisches Lernen

kozul ist Eigenwerbung, ein neuer Aufkleber auf einer alten Hose.

Maxim Dmitrievsky #:
Wo ist der statistische Output nach Resampling und cv? Und die Konstruktion des endgültigen Klassifikators. Nehmen Sie dieses Thema und entwickeln Sie es. Dies ist die Grundlage von kozul.

Tuls für die Erstellung effizienter Modelle, Vergleich mehrerer Modelle vis resampling. Als nächstes sollte so etwas wie statistische Inferenz und unbiased model building folgen.

Wir brauchen statistische Inferenz. Sie liefert einige Ergebnisse im Vergleich mit der gleichen RL und anderen Methoden.

Suche in R: statistisches Lernen, schwach überwachtes Lernen, funktionales Augmentationslernen.

Kozul ist unlautere Werbung, ein neuer Aufkleber auf einer alten Hose.

Tuls für die Erstellung von effektiven Modellen, Vergleich mehrerer Modelle gegenüber Resampling. Als nächstes sollte so etwas wie Stat Inference und Unbiased Model Building kommen.

Dies ist der Standard des maschinellen Lernens, und ein Großteil des Buches befasst sich mit genau diesen Themen, die schon viele Jahre alt sind und für die viele Werkzeuge erfunden wurden. Teil 3 des Buches trägt den Titel: Tools for Creating Effective Models mit folgendem Inhalt:

- 10 Resampling für die Leistungsbewertung

- 11 Vergleich von Modellen mit Resampling

- 12 Modellabstimmung und die Gefahren der Überanpassung

- 13 Rastersuche

- 14 Iterative Suche

- 15 Betrachtung mehrerer Modelle

Außerdem gibt es das Kapitel 20"Ensembles von Modellen", in dem beschrieben wird, wie man das endgültige Modell erstellt.

Wir brauchen statistisches Lernen.

Bedarf? Bitte: CRAN Task View: Maschinelles Lernen & Statistisches Lernen

10 Resampling for Evaluating Performance | Tidy Modeling with R
10 Resampling for Evaluating Performance | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Ensembles sind bereits näher an Kozul, zumindest können Sie die Verzerrung ausgleichen, mit erhöhter Varianz.

Aber Sie werden immer noch eine Menge Rauschen in den Vorhersagen haben (weil die Varianz größer ist), was werden Sie damit tun? Das heißt, der TS wird selbst in der Ausbildung nur etwa 60 % gewinnbringende Geschäfte aufweisen. Und das gleiche oder weniger auf den Test.

Ja, Sie werden anfangen, Staking, um dieses Rauschen zu korrigieren ... gut, versuchen Sie es.
 
Maxim Dmitrievsky #:
Dies ist für Anfänger Tipps, benötigen Sie eine kozul und die Fähigkeit zu denken

Hier, gehen Sie zum Statistikamt, drängeln Sie nicht an der Rezeption.

Kann ich eine These bekommen, wie man das endgültige Modell nach diesem Buch erstellt? Ich telefoniere gerade, ich kann es mir nicht ansehen.

Ein Modell-Ensemble, bei dem die Vorhersagen mehrerer einzelner Lerner zu einer Vorhersage zusammengefasst werden, kann ein leistungsfähiges Endmodell ergeben. Die beliebtesten Methoden zur Erstellung von Ensemblemodellen sind Bagging(Breiman 1996a), Random Forest(Ho 1995;Breiman 2001a) und Boosting(Freund und Schapire 1997). Jede dieser Methoden kombiniert die Vorhersagen aus mehreren Versionen desselben Modelltyps (z. B. Klassifikationsbäume). Eine der frühesten Methoden zur Erstellung von Ensembles ist jedoch dasModel Stacking(Wolpert 1992;Breiman 1996b).

Beim Modellstapeln werden die Vorhersagen für mehrere Modelle beliebigen Typs kombiniert. So können beispielsweise eine logistische Regression, ein Klassifikationsbaum und eine Support-Vector-Maschine in ein Stacking-Ensemble aufgenommen werden.

In diesem Kapitel wird gezeigt, wie Vorhersagemodelle mit Hilfe des Pakets stacks gestapelt werden können. Wir werden die Ergebnisse aus Kapitel15 wiederverwenden, in dem mehrere Modelle zur Vorhersage der Druckfestigkeit von Betonmischungen bewertet wurden.

Der Prozess der Erstellung eines gestapelten Ensembles ist folgender:

  1. Zusammenstellen des Trainingssatzes von Hold-Out-Vorhersagen (erzeugt durch Resampling).
  2. Erstellen Sie ein Modell, um diese Vorhersagen zu kombinieren.
  3. Für jedes Mitglied des Ensembles wird das Modell an den ursprünglichen Trainingssatz angepasst.


20.5 KAPITEL ZUSAMMENFASSUNG

In diesem Kapitel wurde gezeigt, wie verschiedene Modelle zu einem Ensemble kombiniert werden können, um eine bessere Vorhersageleistung zu erzielen. Bei der Erstellung des Ensembles können automatisch Kandidatenmodelle eliminiert werden, um eine kleine Teilmenge zu finden, die die Leistung verbessert. Das Paket stacks verfügt über eine fließende Schnittstelle für die Kombination von Resampling- und Tuning-Ergebnissen zu einem Metamodell.



Dies ist die Sichtweise des Autors auf das Problem, aber es ist nicht die einzige Möglichkeit, mehrere Modelle zu kombinieren - es gibt Stacks-Pakete in R für die Kombination von Modellen, z. B. caretEnsemble: Ensembles von Caret-Modellen

20 Ensembles of Models | Tidy Modeling with R
20 Ensembles of Models | Tidy Modeling with R
  • Max Kuhn and Julia Silge
  • www.tmwr.org
The tidymodels framework is a collection of R packages for modeling and machine learning using tidyverse principles. This book provides a thorough introduction to how to use tidymodels, and an outline of good methodology and statistical practice for phases of the modeling process.
 
Wir brauchen ein Ensemble und ein Stacking, d.h. ein Bousting über die Klassifikatoren. Ensemble beseitigt Verzerrungen und Stacking beseitigt die Varianz. In der Theorie kann das funktionieren, in der Praxis habe ich es noch nicht gemacht. Und es wird eine Menge Modelle geben, was in der Produktion unangenehm ist.

Denn wenn Sie in die Produktion gehen, werden Sie mit vielen Modellen konfrontiert. Und Sie wollen nur ein oder zwei.

Außerdem löst es nicht das Problem, dass man nicht immer auf dem Markt sein muss. Das Modell wird die ganze Zeit über auf dem Markt sein. Wegen dieser, sagen wir mal, Nuancen bricht der gesamte Zyklus von der Entwicklung bis zur Implementierung zusammen.
Der Tester wird langsam testen, alles wird langsam sein, wie in Watte gepackt.
 
Außerdem scheint es in dem Buch eine Verwechslung zwischen Ensemble und Stacking zu geben. Kurz gesagt, es ist ein normaler Ansatz, aber er kann in der Produktion verrückt sein. Und es erfordert keinen Berg von Paketen.

Oh, es löst auch nicht das wichtigste Markup-Problem.
 
Wie der jüngste Link zu Vladimirs Artikel. Er ist ein Beispiel für die verrückteste TK-Erstellung. Wenn man eine Menge Arbeit und Transformationen gemacht hat und das Ergebnis ein Modell ist, das man mit ro her Gewalt erhalten kann, ohne etwas zu tun. Das ist interessant, aber unproduktiv.
 
Maxim Dmitrievsky #:
alles wird langsam sein, Baumwolle.
Maxim Dmitrievsky #:
Es scheint auch, dass das Buch Ensemble und Stapeln verwechselt. Kurz gesagt, ist dies ein normaler Ansatz, aber es kann Baumwolle in der Produktion sein.
Maxim Dmitrievsky #:
Wie Sie vor kurzem gab einen Link zu Vladimir's Artikel. Ein Beispiel für die meisten verrückten TC Schöpfung.

Welche Art von Baumwolligkeit?

 
Forester #:

Was hat es mit der Watte auf sich?

Ein Synonym für langsam
 

Ich schlage vor, wir kehren zu Kozul, statistischem Lernen und zuverlässiger KI zurück.

P.Z..

Finden Sie die Feinheiten heraus.