Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2746
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Prüfen Sie es also vorher.
Was überprüfen? Ob du eine Rotation hast???
Das ist nicht einmal mehr lustig.
Um die Theorie von Sanych zusammenzufassen (da er sie selbst nicht richtig formalisiert und Beispiele genannt hat):
Er ist völlig falsch.
1. Ich habe oben über mein Verständnis von "Vorhersagekraft" geschrieben
2. Die Bedeutung ist nicht klar
3. Es gibt keine Ausbildung im üblichen Sinne. Zufällige Waldanpassung. Stichprobengröße = 1500 Balken, Anzahl der Bäume = 150. Die Stichprobengröße wird aus dem Anpassungsfehlerdiagramm entnommen. Auf dieser Stichprobe von 170 Prädiktoren werden die Prädiktoren nach verschiedenen Kriterien ausgewählt und vorverarbeitet . Schließlich werden aus den 20-30 verbleibenden Prädiktoren 5 bis 10 Prädiktoren auf der Grundlage der maximalen Vorhersagefähigkeit ausgewählt und das Modell angepasst. Der nächste Balken wird anhand des erhaltenen Modells vorhergesagt. Bei der Ankunft eines neuen Balkens wird der gesamte Prozess der Modellbildung wiederholt.
Der maximale Anpassungsfehler liegt bei etwa 20 %, aber er ist recht selten. Normalerweise liegt er bei etwa 10%.
4. Ich habe meinen Ansatz bereits beschrieben.
Ein weiteres Mal.
aber das Ziel ist kein Zickzack, oder?
Völlig falsch
1. Oben schrieb er über sein Verständnis von "Vorhersagefähigkeit"
2. Die Bedeutung ist nicht klar
3. keine Trainee im üblichen Sinne. Zufällige Waldanpassung. Stichprobengröße = 1500 Balken, Anzahl der Bäume = 150. Die Stichprobengröße wird aus dem Fit Error Plot entnommen. Aus dieser Stichprobe von 170 Prädiktoren werden die Prädiktoren nach verschiedenen Kriterien ausgewählt und vorverarbeitet . Schließlich werden aus den 20-30 verbleibenden Prädiktoren 5 bis 10 Prädiktoren auf der Grundlage der maximalen Vorhersagefähigkeit ausgewählt und das Modell angepasst. Der nächste Balken wird anhand des erhaltenen Modells vorhergesagt. Bei der Ankunft eines neuen Balkens wird der gesamte Prozess der Modellerstellung wiederholt.
Der maximale Anpassungsfehler liegt bei etwa 20 %, aber er ist recht selten. Normalerweise liegt er bei etwa 10 %.
4. Ich habe meinen Ansatz bereits beschrieben.
Die Zuversicht, dass die künftigen Ergebnisse ebenso gut sein werden, ergibt sich aus der Statistik der Vorhersagefähigkeit, die:
1. einen ausreichend hohen sd-Wert haben sollte
2. einen niedrigen sd-Wert.
Wie üblich gilt: Wenn man Prädiktoren findet, die einen sd-Wert von weniger als 10 % haben, dann ist die Streuung des Vorhersagefehlers etwa gleich groß.
Meine Schlussfolgerung:
1. Wir sollten einen der Algorithmen zur "Vorhersagefähigkeit" übernehmen (oder entwickeln)
2. Suche nach einer Liste von Prädiktoren, deren Werte für die Vorhersagefähigkeit sich um den Faktor eins unterscheiden
3. Führen Sie ein Fenster aus und erstellen Sie Statistiken: Mittelwert und Abweichung vom Mittelwert. Wenn Sie Glück haben, werden Sie eine solche Liste finden. Das habe ich.
Das Modell spielt keine Rolle. Bei meinen Prädiktoren liefern RF, ada, GBM, GLM ungefähr das gleiche Ergebnis. SVM ist etwas schlechter. Mit nnet ist es überhaupt nicht gut.
Der ganze Erfolg liegt in den Prädiktoren und ihrer Vorverarbeitung. Und Sie machen hier Unsinn!
Das macht mehr Sinn. Woher kommen die Zielvorgaben, aus den Clustering-Ergebnissen?
Ich habe das Zeichen der normalen Inkremente.
Das Ziel ist sekundär. Das Problem mit dem Ziel sind die Prädiktoren: Sie können Prädiktoren einem bestimmten Ziel zuordnen oder nicht.
Ich habe ein Zeichen für normale Abstufungen.
Das Ziel ist zweitrangig. Das Problem des Ziels sind Prädiktoren: Man kann Prädiktoren an ein bestimmtes Ziel anpassen oder nicht.
Vorhersagefähigkeit ist Information, Korrelation und NICHT:
1. Korrelation ist die "Ähnlichkeit" einer stationären Reihe mit einer anderen, und es gibt immer einen gewissen Wert, und es gibt keinen Wert "keine Beziehung". Die Korrelation hat immer irgendeinen Wert, so dass man die Korrelation leicht verwenden kann, um die Beziehung zwischen einem Lehrer und Kaffeesatz zu finden.
2. Die Ficheselektion ist die Häufigkeit der Verwendung von Fichen bei der Erstellung von Modellen. Wenn wir Prädiktoren nehmen, die nichts mit dem Lehrer zu tun haben, erhalten wir immer noch ein Ranking der Fiches.
Ein Analogon zu meinem Verständnis von "Vorhersagekraft" ist zum Beispiel caret::classDist(), das Mahalanobis-Sampling-Distanzen für jede Klasse von Schwerpunkten definiert. Oder woeBinning. Es gibt viele Ansätze und viele Pakete in R. Es gibt weitere, die auf der Informationstheorie basieren.
Ich habe ein Zeichen für normale Abstufungen.
Das Ziel ist zweitrangig. Das Problem des Ziels sind die Prädiktoren: Sie können Prädiktoren einem bestimmten Ziel zuordnen oder nicht.
Das Vorzeichen von Inkrementen und das Vorzeichen von ZZ garantieren keinen Gewinn. 5 kleine Inkremente können sich leicht mit einem starken Inkrement überschneiden, allerdings in die entgegengesetzte Richtung. Und 10 z.B. nachts gewinnbringende Balken werden auch von 1 Tagesverlust-Balken abgedeckt (nur 10% Fehler).
Welche Gleichgewichtslinie wird sich aus den neuen Daten ergeben? Ich hoffe, sie ist nicht horizontal mit kleinen Schwankungen nach oben/unten?
In den Artikeln von Vladimir liegt der Fehler ebenfalls bei 10-20 %, aber die Gleichgewichtslinie stimmt nicht optimistisch.
Ich verstehe es immer noch nicht. Es geht nicht um die Korrelation oder die Häufigkeit der Verwendung. Wie wird presc.sp. in der Ausbildung geschätzt, oder durch was wird es geschätzt?
Dieselbe Vektoralgebra, dieselbe Merkmalszuordnung, die das Problem der Multikollinearität beseitigt.
- d.h. räumliche Auswahl/Projektion von im Wesentlichen gleichen "Komponenten".... Die räumliche Auswahl/Projektion von im Wesentlichen gleichen "Komponenten" im Raum multikollinearer Merkmale bietet ein Feld für die Anwendung der Vektor(!)algebra. Um die Multikollinearität nicht auf handwerkliche Weise zu beseitigen, ist es besser, sie einfach zu berücksichtigen (z. B. durch Reduktion auf den 3D-Raum oder was auch immer Sie wollen und mit Projektionen zu arbeiten, und wenn nötig, können die Ausgangsdaten mit diesen Schätzungen multipliziert werden, wie z. B. Faktorladungen, obwohl die Bibliothek selbst normalerweise diesen Mahalanobis-Abstand misst und die Ergebnisse liefert).
Wie auch immer, das Endergebnis ist die gleiche Annäherung an den Mittelwert und die Standardabweichung und das Treffen von Handelsentscheidungen auf der Grundlage dieser Werte.
- Es gibt keine andere Modellierung in der Natur - es gibt nur Wege, um allgemeine Probleme (Heteroskedastizität, Multikollinearität, Autokorrelation der Residuen) im (verschieden-) n-dimensionalen Raum zu lösen...
und es gibt kein Entkommen aus der Statistik ... die Lösung des Merkmalskorrelationsproblems liegt hier in expliziter Form vor ...
p.s..
UPDATED: noch immer wird dieses Tool(MD) für Clustering/Gruppierung/mehrdimensionale_Klassifikation verwendet ... zur Auswahl von Ausreißern in einem mehrdimensionalen Raum ... wird manchmal zusammen mit dem euklidischen Abstand verwendet... "wenn die Variablen nicht korreliert sind - der Mahalanobis-Abstand stimmt mit dem üblichen euklidischen Abstand überein" .... in LDA... im Allgemeinen ist die tz diejenige, die ich zuvor beschrieben habe....
Mit diesem Beitrag wollte ich keineswegs PCA und Clustering gleichsetzen, ich hatte nur in Erinnerung, dass sowohl PCA als auch MD die Möglichkeit bieten, Ausreißer im mehrdimensionalen Raum zu beseitigen... aber das Wesentliche meiner Aktualisierung ändert sich nicht: dies sind alles Lösungen räumlicher Probleme durch Vektoralgebra, um das Problem der Multikollinearität zu berücksichtigen (so dass es nicht zu einer Verzerrung/Verschiebung statistischer Schätzungen kommt).