Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 89

 
Vizard_:
Gleitende Steuerung ist für Fans))))) und die Tatsache, dass nur in diesem Fall das Modell geeignet ist, ist ein Trugschluss.
Aber das ist alles Unsinn, jeder hat seine eigenen Macken-Notwendigkeiten in verschiedenen Stadien, man kann sie auch hinzufügen.
Ich meinte die Ausgabe in % sowohl für die allgemeine als auch für die Testausgabe (Test = OOS - Anwendung der Formel auf neue Daten)
Ein Vorteil der Fensteranwendungen ist ihre schnelle Verwendbarkeit. Es ist möglich, eine normale Shell zu erstellen.
Reshetov ist ein erfahrener Programmierer, also muss es auf normale Weise gemacht werden. Das ist alles. Natürlich nur imho.
Ich werde Yuris Software nicht ausprobieren, nicht weil ich denke, dass er Mist gemacht hat. Auch wenn er ein erfahrener Programmierer ist. Es ist nur so, dass alles bereits implementiert ist, es stellt sich sogar heraus, dass es in dem Paket, das ich benutze, einen Walk Forward gibt. Und es gibt 150-200 Modelle pro Probe, von SVM über lineare Modelle mit Regularisierung bis hin zu XGBOOST.
 
Alexey Burnakov:


Wenn die Auswahl eines guten Modells in einer Stichprobe zu guten Ergebnissen außerhalb der Stichprobe führt, bedeutet dies, dass das Modell für das gewählte Problem geeignet ist.

Noch einmal für die besonders Begabten: Wenn ein Modell die Auswahl besteht, bedeutet das nicht, dass es für das gewählte Problem potenziell geeignet ist, insbesondere in nicht-stationären Umgebungen. Es bedeutet nur, dass es irgendwie die Auswahl bestanden hat.

Wenn eine Bewerberin oder ein Bewerber die Aufnahmeprüfung an einer Universität bestanden hat, bedeutet dies nicht, dass sie oder er ihr oder sein Diplom verteidigen wird, geschweige denn, dass sie oder er später in dem von ihr oder ihm gewählten Bereich arbeiten wird.

Die Auswahl reduziert nur die Wahrscheinlichkeit der Untauglichkeit, aber nicht immer auf Null. Und wir sollten nicht vergessen, dass die Ergebnisse der Auswahl auch falsch positiv und falsch negativ sein können. Das heißt, die Wahrscheinlichkeit, dass das Auswahlverfahren auch "das Kind mit dem Bade ausschüttet", ist nicht gleich Null.

 
Yury Reshetov:

Noch einmal für die besonders Begabten: Wenn ein Modell die Auswahl besteht, bedeutet das nicht, dass es potenziell für das gewählte Problem geeignet ist, insbesondere in nicht-stationären Umgebungen. Es bedeutet nur, dass es die Auswahl irgendwie bestanden hat.

Wenn eine Bewerberin durch die Aufnahmeprüfungen an der Universität ausgewählt wird, bedeutet dies nicht, dass sie ihr Diplom verteidigen wird, geschweige denn, dass sie anschließend in ihrem gewählten Fachgebiet arbeiten wird.

Die Auswahl reduziert nur die Wahrscheinlichkeit der Untauglichkeit, aber nicht immer auf Null. Und wir sollten nicht vergessen, dass die Ergebnisse der Auswahl auch falsch positiv und falsch negativ sein können. Das heißt, die Wahrscheinlichkeit, dass bei der Auswahl auch "das Kind mit dem Bade ausgeschüttet" wurde, ist nicht gleich Null.

Lassen Sie mich das für die ganz Anspruchsvollen noch einmal erklären.

Alle Ergebnisse sind natürlich probabilistisch!

Es gibt Modellergebnisse beim Training, es gibt Ergebnisse bei der Kreuzvalidierung oder beim Testen (um Modellparameter zu ermitteln und einen frühen Lernstopp einzulegen). Es gibt auch Ergebnisse von Modellen außerhalb der Stichprobe - endgültige Schätzung.

Wenn die Ergebnisse bei der Prüfung gut mit den Ergebnissen außerhalb der Stichprobe korrelieren, bedeutet dies, dass die Qualität der Abhängigkeitsmodellierung für den Zeitraum außerhalb der Stichprobe träge ist. In diesem Fall kann das beste Modell in der Prüfung (nicht "aus der Stichprobe") genommen werden. Anschließend kann man das Modell auf alle neuen Daten mit bekannten Parametern neu trainieren und das beste Modell nehmen, da die Beziehung zu den zukünftigen Ergebnissen praktisch hergestellt ist.

Wenn die Testergebnisse schlecht mit den Ergebnissen außerhalb der Stichprobe korrelieren, ist es sinnlos, das beste Modell für das Training zu nehmen. Das beste Modell "außerhalb der Stichprobe" zu nehmen ist eine Anpassung. Es gibt nur einen Ausweg - die Methode der Modellerstellung zu verwerfen oder die Parameterbereiche deutlich zu ändern.

 
Und ich nutze zum Beispiel Deep Learning, um die Generalisierungsfähigkeit des Reshetov-Optimierers zu verbessern, und mit der neuen Möglichkeit, die Qualität des Prädikats zu bewerten, ist es eine Schönheit. Mit Deep Learning kann die Generalisierung von 50% auf 80-90% erhöht werden und in diesem Fall beginnt das Modell bei hurrah.... zu arbeiten. Also, übernehmt das hier, Leute. Und kein Grund zum Streiten (c) Leopold und alle anderen......
 
.

"Sie könnten zum Beispiel vorschlagen, dass sie eine Woche lang einen Thread erstellen - eine Woche, in der die Leute ihre Meinung äußern können - und sie dann unter die Räder kommen lassen."

Ich weiß nicht, welcher Gimmick das obige Zitat in meinen Beitrag eingefügt hat, aber es ist nicht mein Beitrag.

Wenn den Moderatoren etwas an meinen Beiträgen nicht gefällt, ist das ihr gutes Recht. Fügen Sie einfach nicht den Text eines anderen in meine Beiträge ein, und verhalten Sie sich kulturell: Geben Sie an, was genau Ihnen nicht gefallen hat, und zwar in ihrem eigenen Namen. Und ich, um die Moderatoren nicht zu verärgern, gehe von dieser Seite weg auf meine eigene: der Link ist in meinem Profil.

Auf Wiedersehen!

 
Yury Reshetov:
.

"Sie könnten zum Beispiel vorschlagen, dass sie eine Woche lang einen Thread erstellen - eine Woche, in der die Leute ihre Meinung äußern können - und sie dann unter die Räder kommen lassen."

Ich weiß nicht, welcher Gimmick das obige Zitat in meinen Beitrag eingefügt hat, aber es ist nicht mein Beitrag.

Wenn den Moderatoren etwas an meinen Beiträgen nicht gefällt, ist das ihr gutes Recht. Fügen Sie einfach nicht den Text eines anderen in meine Beiträge ein, und verhalten Sie sich kulturell: Geben Sie an, was genau Ihnen nicht gefallen hat, und zwar in ihrem eigenen Namen. Und ich, um die Moderatoren nicht zu verärgern, gehe von dieser Seite weg auf meine eigene: der Link ist in meinem Profil.

Auf Wiedersehen an alle!

WOW!!! Und ich dachte, Sie hätten geschrieben ... Kluger Schachzug... Das ist richtig...
 
Yury Reshetov:
.

"Sie könnten zum Beispiel vorschlagen, dass sie eine Woche lang einen Thread erstellen - eine Woche, in der die Leute ihre Meinung äußern können - und sie dann unter die Räder kommen lassen."

Ich weiß nicht, welcher Kobold das obige Zitat in meinen Beitrag eingefügt hat, aber es ist nicht mein Beitrag.

Wenn den Moderatoren etwas an meinen Beiträgen nicht gefällt, ist das ihr gutes Recht. Fügen Sie einfach nicht den Text eines anderen in meine Beiträge ein, und verhalten Sie sich kulturell: Geben Sie an, was genau Ihnen nicht gefallen hat, und zwar in ihrem eigenen Namen. Und ich, um die Moderatoren nicht zu verärgern, gehe von dieser Seite weg auf meine eigene: der Link ist in meinem Profil.

Auf Wiedersehen an alle!

Sie können gerne wiederkommen.
 
Eidechse_:

Ich werde später nachsehen, ob Interesse besteht, aber ich glaube, ich habe schlechte Arbeit geleistet)))
Ja, +R ist, dass es wahrscheinlich schon alles Mögliche implementiert hat. ML für eine lange Zeit, sondern nur Modelle ohne retrain. Eines der letzten Dinge, die ich mit ML gemacht habe, war einfach
das Modell mit Ereignissen füllen, damit sie immer das Ziel treffen. Kombiniert man sie, erhält man in der Regel 93-96 %. Den Rest trainieren Sie. Mit anderen Worten.
Wenn Sie Ihrem Kind beigebracht haben, ein wenig zu laufen, müssen Sie ihm nicht jeden Tag dasselbe sagen, sondern nur, wann es über die Pfütze springen soll.
(keine Vorhersage im Ziel).ein wenig tropft, ist das Ziel sicherlich nicht die Farbe der Kerze)))
Ich habe keine Ahnung, wie man das macht, aber ich bin mir nicht sicher, wie ich es machen soll.
 
Eidechse_:

Ein bisschen tropft, das Ziel ist natürlich nicht die Farbe der Kerze)))
Das ist keine Selbstverständlichkeit )
 
Nested cross validation for model selection
Nested cross validation for model selection
  • stats.stackexchange.com
How can one use nested cross validation for model selection? From what I read online, nested CV works as follows: There is the inner CV loop, where we may conduct a grid search (e.g. running K-fold for every available model, e.g. combination of hyperparameters/features) There is the outer CV loop, where we measure the performance of the model...