Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2746

 
JeeyCi #:

Prüfen Sie es also vorher.

Was überprüfen? Ob du eine Rotation hast???

Das ist nicht einmal mehr lustig.

 
Maxim Dmitrievsky #:
Um die Theorie von Sanych zusammenzufassen (da er sie selbst nicht richtig formalisiert und Beispiele genannt hat):

*Seine Art der Merkmalsauswahl basiert auf Korrelation, da "Beziehung" und "Beziehung" Definitionen von Korrelation sind.

*Auf diese Weise wird eine implizite Anpassung an die Geschichte vorgenommen, ähnlich wie bei der LDA (linearen Diskriminanzanalyse) oder der PCA, was den Lernprozess vereinfacht und die Fehlerquote verringert.

*Es gibt nicht einmal die Theorie, dass das trainierte Modell bei neuen Daten (die nicht in die Schätzung der Merkmal-Ziel-Beziehungen einbezogen sind) besser abschneiden sollte, weil die Merkmale zuvor an das Merkmal oder (schlimmer) an die gesamte verfügbare Historie angepasst wurden.

*Die Situation wird durch die Mittelwertbildung von QC in einem gleitenden Fenster etwas verbessert, so wie man die Streuung schätzen und stabilere auswählen kann. Wenigstens einige Statistiken, auf die man sich verlassen kann

*Ich dachte an Kausalität oder eine statistisch signifikante Beziehung, aber das ist bei seinem Ansatz nicht der Fall.

Er ist völlig falsch.

1. Ich habe oben über mein Verständnis von "Vorhersagekraft" geschrieben

2. Die Bedeutung ist nicht klar

3. Es gibt keine Ausbildung im üblichen Sinne. Zufällige Waldanpassung. Stichprobengröße = 1500 Balken, Anzahl der Bäume = 150. Die Stichprobengröße wird aus dem Anpassungsfehlerdiagramm entnommen. Auf dieser Stichprobe von 170 Prädiktoren werden die Prädiktoren nach verschiedenen Kriterien ausgewählt und vorverarbeitet . Schließlich werden aus den 20-30 verbleibenden Prädiktoren 5 bis 10 Prädiktoren auf der Grundlage der maximalen Vorhersagefähigkeit ausgewählt und das Modell angepasst. Der nächste Balken wird anhand des erhaltenen Modells vorhergesagt. Bei der Ankunft eines neuen Balkens wird der gesamte Prozess der Modellbildung wiederholt.

Der maximale Anpassungsfehler liegt bei etwa 20 %, aber er ist recht selten. Normalerweise liegt er bei etwa 10%.

4. Ich habe meinen Ansatz bereits beschrieben.

 
СанСаныч Фоменко #:

Ein weiteres Mal.

aber das Ziel ist kein Zickzack, oder?

 
СанСаныч Фоменко #:

Völlig falsch

1. Oben schrieb er über sein Verständnis von "Vorhersagefähigkeit"

2. Die Bedeutung ist nicht klar

3. keine Trainee im üblichen Sinne. Zufällige Waldanpassung. Stichprobengröße = 1500 Balken, Anzahl der Bäume = 150. Die Stichprobengröße wird aus dem Fit Error Plot entnommen. Aus dieser Stichprobe von 170 Prädiktoren werden die Prädiktoren nach verschiedenen Kriterien ausgewählt und vorverarbeitet . Schließlich werden aus den 20-30 verbleibenden Prädiktoren 5 bis 10 Prädiktoren auf der Grundlage der maximalen Vorhersagefähigkeit ausgewählt und das Modell angepasst. Der nächste Balken wird anhand des erhaltenen Modells vorhergesagt. Bei der Ankunft eines neuen Balkens wird der gesamte Prozess der Modellerstellung wiederholt.

Der maximale Anpassungsfehler liegt bei etwa 20 %, aber er ist recht selten. Normalerweise liegt er bei etwa 10 %.

4. Ich habe meinen Ansatz bereits beschrieben.

Das ist klarer. Woher kommen die Ziele, die auf den Clustering-Ergebnissen basieren?
 

Die Zuversicht, dass die künftigen Ergebnisse ebenso gut sein werden, ergibt sich aus der Statistik der Vorhersagefähigkeit, die:

1. einen ausreichend hohen sd-Wert haben sollte

2. einen niedrigen sd-Wert.

Wie üblich gilt: Wenn man Prädiktoren findet, die einen sd-Wert von weniger als 10 % haben, dann ist die Streuung des Vorhersagefehlers etwa gleich groß.


Meine Schlussfolgerung:

1. Wir sollten einen der Algorithmen zur "Vorhersagefähigkeit" übernehmen (oder entwickeln)

2. Suche nach einer Liste von Prädiktoren, deren Werte für die Vorhersagefähigkeit sich um den Faktor eins unterscheiden

3. Führen Sie ein Fenster aus und erstellen Sie Statistiken: Mittelwert und Abweichung vom Mittelwert. Wenn Sie Glück haben, werden Sie eine solche Liste finden. Das habe ich.

Das Modell spielt keine Rolle. Bei meinen Prädiktoren liefern RF, ada, GBM, GLM ungefähr das gleiche Ergebnis. SVM ist etwas schlechter. Mit nnet ist es überhaupt nicht gut.


Der ganze Erfolg liegt in den Prädiktoren und ihrer Vorverarbeitung. Und Sie machen hier Unsinn!

 
Maxim Dmitrievsky #:
Das macht mehr Sinn. Woher kommen die Zielvorgaben, aus den Clustering-Ergebnissen?

Ich habe das Zeichen der normalen Inkremente.

Das Ziel ist sekundär. Das Problem mit dem Ziel sind die Prädiktoren: Sie können Prädiktoren einem bestimmten Ziel zuordnen oder nicht.

 
СанСаныч Фоменко #:

Ich habe ein Zeichen für normale Abstufungen.

Das Ziel ist zweitrangig. Das Problem des Ziels sind Prädiktoren: Man kann Prädiktoren an ein bestimmtes Ziel anpassen oder nicht.

Ich passe sie in der Phase der Markierung von Zielen an ein oder mehrere Zeichen an, was durch Korrelation oder zumindest Mahalanobis geschehen kann. D.h. jede informative Menge kann gemacht werden

Das Thema des gleitenden Fensters ist jetzt klar, man muss nur das Modell neu trainieren und die Zeichen neu auswählen.

Ich würde einfach Statistiken über sie in einem gleitenden Fenster berechnen und die optimalen auswählen, um nicht bei jedem Balken neu zu trainieren.
 
СанСаныч Фоменко Auswahl der Prädiktoren, die die Modelle erzeugen.

Vorhersagefähigkeit ist Information, Korrelation und NICHT:

1. Korrelation ist die "Ähnlichkeit" einer stationären Reihe mit einer anderen, und es gibt immer einen gewissen Wert, und es gibt keinen Wert "keine Beziehung". Die Korrelation hat immer irgendeinen Wert, so dass man die Korrelation leicht verwenden kann, um die Beziehung zwischen einem Lehrer und Kaffeesatz zu finden.

2. Die Ficheselektion ist die Häufigkeit der Verwendung von Fichen bei der Erstellung von Modellen. Wenn wir Prädiktoren nehmen, die nichts mit dem Lehrer zu tun haben, erhalten wir immer noch ein Ranking der Fiches.

Ein Analogon zu meinem Verständnis von "Vorhersagekraft" ist zum Beispiel caret::classDist(), das Mahalanobis-Sampling-Distanzen für jede Klasse von Schwerpunkten definiert. Oder woeBinning. Es gibt viele Ansätze und viele Pakete in R. Es gibt weitere, die auf der Informationstheorie basieren.

Ich habe es immer noch nicht verstanden. Es ist nicht die Korrelation oder die Häufigkeit der Nutzung. Wie wird der presc.sp. im Training geschätzt oder durch was wird er geschätzt?
Oder handelt es sich um eine Art Gleichgewichtsindikator, der so genannt wird?
S.F. Ich habe weitergelesen, es wurde klarer.
 
СанСаныч Фоменко #:

Ich habe ein Zeichen für normale Abstufungen.

Das Ziel ist zweitrangig. Das Problem des Ziels sind die Prädiktoren: Sie können Prädiktoren einem bestimmten Ziel zuordnen oder nicht.

Das Vorzeichen von Inkrementen und das Vorzeichen von ZZ garantieren keinen Gewinn. 5 kleine Inkremente können sich leicht mit einem starken Inkrement überschneiden, allerdings in die entgegengesetzte Richtung. Und 10 z.B. nachts gewinnbringende Balken werden auch von 1 Tagesverlust-Balken abgedeckt (nur 10% Fehler).

Welche Gleichgewichtslinie wird sich aus den neuen Daten ergeben? Ich hoffe, sie ist nicht horizontal mit kleinen Schwankungen nach oben/unten?

In den Artikeln von Vladimir liegt der Fehler ebenfalls bei 10-20 %, aber die Gleichgewichtslinie stimmt nicht optimistisch.

 
Valeriy Yastremskiy #:
Ich verstehe es immer noch nicht. Es geht nicht um die Korrelation oder die Häufigkeit der Verwendung. Wie wird presc.sp. in der Ausbildung geschätzt, oder durch was wird es geschätzt?
Oder handelt es sich um eine Art Gleichgewichtsmaß, das so genannt wird?

Dieselbe Vektoralgebra, dieselbe Merkmalszuordnung, die das Problem der Multikollinearität beseitigt.

Der Mahalanobis-Abstand ist eines der gebräuchlichsten Maße in der multivariaten Statistik.

- d.h. räumliche Auswahl/Projektion von im Wesentlichen gleichen "Komponenten".... Die räumliche Auswahl/Projektion von im Wesentlichen gleichen "Komponenten" im Raum multikollinearer Merkmale bietet ein Feld für die Anwendung der Vektor(!)algebra. Um die Multikollinearität nicht auf handwerkliche Weise zu beseitigen, ist es besser, sie einfach zu berücksichtigen (z. B. durch Reduktion auf den 3D-Raum oder was auch immer Sie wollen und mit Projektionen zu arbeiten, und wenn nötig, können die Ausgangsdaten mit diesen Schätzungen multipliziert werden, wie z. B. Faktorladungen, obwohl die Bibliothek selbst normalerweise diesen Mahalanobis-Abstand misst und die Ergebnisse liefert).

Wie auch immer, das Endergebnis ist die gleiche Annäherung an den Mittelwert und die Standardabweichung und das Treffen von Handelsentscheidungen auf der Grundlage dieser Werte.

- Es gibt keine andere Modellierung in der Natur - es gibt nur Wege, um allgemeine Probleme (Heteroskedastizität, Multikollinearität, Autokorrelation der Residuen) im (verschieden-) n-dimensionalen Raum zu lösen...

und es gibt kein Entkommen aus der Statistik ... die Lösung des Merkmalskorrelationsproblems liegt hier in expliziter Form vor ...

p.s..

UPDATED: noch immer wird dieses Tool(MD) für Clustering/Gruppierung/mehrdimensionale_Klassifikation verwendet ... zur Auswahl von Ausreißern in einem mehrdimensionalen Raum ... wird manchmal zusammen mit dem euklidischen Abstand verwendet... "wenn die Variablen nicht korreliert sind - der Mahalanobis-Abstand stimmt mit dem üblichen euklidischen Abstand überein" .... in LDA... im Allgemeinen ist die tz diejenige, die ich zuvor beschrieben habe....

Mit diesem Beitrag wollte ich keineswegs PCA und Clustering gleichsetzen, ich hatte nur in Erinnerung, dass sowohl PCA als auch MD die Möglichkeit bieten, Ausreißer im mehrdimensionalen Raum zu beseitigen... aber das Wesentliche meiner Aktualisierung ändert sich nicht: dies sind alles Lösungen räumlicher Probleme durch Vektoralgebra, um das Problem der Multikollinearität zu berücksichtigen (so dass es nicht zu einer Verzerrung/Verschiebung statistischer Schätzungen kommt).

Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Попробуйте сделать кластерный анализ, чтобы определиться сколько классов формально выделить как их назвать уже дело субъективного вкуса.
Машинное обучение в трейдинге: теория, модели, практика и алготорговля - Попробуйте сделать кластерный анализ, чтобы определиться сколько классов формально выделить как их назвать уже дело субъективного вкуса.
  • 2022.09.15
  • www.mql5.com
поскольку он сам не смог нормально формализовать и привести примеры его способ отбора признаков основан на корреляции. чтобы определиться сколько классов формально выделить как их назвать уже дело субъективного вкуса. на основании которых относить sample ы к тому или иному классу