Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3249
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
die Statistik zeigt, sagen wir die zukünftigen 10 Balken, ich gebe alle Kurven jeder gefundenen Instanz des Musters in der Zukunft aus (wie eine Prognose)
Dann wird der Durchschnitt aller Kurven
Wie dieses Muster ist für den Verkauf, im Durchschnitt, und wie viele Pips können gesehen werden.
Ich sah etwas ähnliches hier.
Auf dem Bildschirm sieht es ähnlich aus, aber die Länge des Musters ist sehr hoch, weil M1. Es wird wahrscheinlich etwas Interessantes auf den Stundenmarkern zeigen, da es gefunden wurde.
Und dieses Problem
scheint gelöst zu sein.
Aber ich mache das in Python und berechne die Korrelation für alle möglichen Paare auf einmal und wähle dann daraus.
Das Wichtigste ist hier die Geschwindigkeit.Es muss eine Entsprechung in Python geben. Dann sollte es schnell sein.
Ich habe hier etwas Ähnliches gesehen.
Auf dem Bildschirm sieht es ähnlich aus, aber die Länge des Musters ist sehr hoch, weil M1. Es wird wahrscheinlich etwas Interessantes auf den Stundenmarkern zeigen, da es gefunden wurde.
Und dieses Problem
scheint gelöst zu sein.
Aber es ist nicht Bergbau (Overkill) dort, natürlich. Obwohl nicht weit weg.))) Ich habe es auch gesehen
Ursprünglich war ich daran interessiert, wie man in mehrdimensionalen Arrays ohne MO nach Mustern suchen kann. Bisher ist mir noch nichts Besseres eingefallen, als alle Dimensionen in eine zu packen und über Korrelation zu berechnen (ziemlich schnell). Ich denke, manchmal müssen die Werte normalisiert werden, damit sie nicht zu unterschiedlich sind.
Es muss eine Entsprechung in Python geben. Dann sollte es schnell sein.
Das gibt es, aber wenn die Anzahl der Zeichen (Indikatoren) wächst, ist es immer noch nicht sehr schnell.
Die 3980 implementierte Conjugate-Methoden für die Typen complex, vector<complex> und matrix<complex>. Sie führen die Konjugation für komplexe Zahlen durch.
Außerdem wurde die Verarbeitung von ONNX-Modellausgaben vom Typ Sequence of maps hinzugefügt. Die Funktionalität von ONNX Runtime wurde erheblich verbessert.
Es gibt sie, aber die Zahl der Anzeichen (Indikatoren) nimmt zwar zu, aber noch nicht sehr schnell.
Ich erinnere mich nicht mehr, aber die Komplexität des Algorithmus ist definitiv kleiner als O(N^2). Ich glaube, sie ist nicht höher als O(N*log). Deshalb ist die merkliche Verlangsamung nicht ganz klar, wenn die Vorzeichen wachsen.
Es gibt einen zweiseitigen Zusammenhang: mehr Merkmale, weniger Stichproben - geringere statistische Signifikanz.
Ich denke, manchmal müssen die Werte normalisiert werden, damit sie nicht zu unterschiedlich sind.
Ohne Normalisierung kann es ein Chaos geben.
Forum zum Thema Handel, automatisierte Handelssysteme und Testen von Handelsstrategien
Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading
fxsaber, 2023.09.21 16:19
Dann ist es notwendig, Indikatoren zu einigen vereinheitlichten Papageien zu bringen. Selbst wenn der Indikator ist das Inkrement in verschiedenen Intervallen, sonst wird eine seltsame Korrelation herauskommen.
Forum zum Thema Handel, automatisierte Handelssysteme und Testen von Handelsstrategien
Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algorithmenhandel
Maxim Dmitrievsky, 2023.09.21 15:59
das Beispiel des Testers hatte eine Länge von 9 (Inkremente von verschiedenen Perioden)
es ist überhaupt nicht klar, was die Korrelation ohne Normalisierung zeigt. Was wäre wenn. dieser übersprungene, scheinbar logische Schritt zu einem guten Ergebnis führt.....
Ich weiß es nicht mehr, aber die Komplexität des Algorithmus ist definitiv geringer als O(N^2). Ich glaube, sie ist nicht höher als O(N*log). Deshalb ist die merkliche Verlangsamung, wenn die Zeichen wachsen, nicht ganz klar.
Es gibt einen zweiseitigen Zusammenhang: mehr Merkmale, weniger Stichproben - geringere statistische Signifikanz.
Nun, ich zähle auch alle möglichen Paare auf einmal. Es gibt noch eine Menge Eingabedaten, die ich ausprobieren möchte. Das ist auch gut so. Es ist nur so, dass es in STUMPY die Möglichkeit gibt, ungefähr zu zählen und dann zu verfeinern. Man erhält eine spürbare Beschleunigung, plus Parallelisierung und auf der GPU. Ich werde wahrscheinlich komplett auf dieses Paket umsteigen.
Hier kann der Brei ohne Normalisierung herauskommen.
Wenn es sich um nicht-standardisierte Renditen handelt, wie hier, .ist es nicht klar, was die Korrelation ohne Normalisierung zeigt. Was wäre, wenn... dieser übersprungene, scheinbar logische Schritt zu einem guten Ergebnis führt....
Ich werde es später analysieren, ich bin noch nicht bereit, es zu kommentieren, ich habe diese Berechnung erst gestern geschrieben.
Ich werde es später analysieren, ich bin noch nicht bereit, einen Kommentar abzugeben, ich habe diesen Countdown erst gestern geschrieben.
Ich denke, dass die Korrelation von den größten Zahlen in Bezug auf den abs-Wert beeinflusst wird. Zum Beispiel, eine Volumenänderung von 10000 und 10100, und auf ihrem Hintergrund eine Preisänderung von 0,00040 und 0,00400 werden mikroskopisch klein sein und werden wenig Einfluss auf die Korrelation des gesamten Sets haben. Ich würde eine Normalisierung durchführen, um diese Hypothese zu testen.