Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 3249

 
Maxim Dmitrievsky #:

die Statistik zeigt, sagen wir die zukünftigen 10 Balken, ich gebe alle Kurven jeder gefundenen Instanz des Musters in der Zukunft aus (wie eine Prognose)

Dann wird der Durchschnitt aller Kurven

Wie dieses Muster ist für den Verkauf, im Durchschnitt, und wie viele Pips können gesehen werden.

Ich sah etwas ähnliches hier.

Auf dem Bildschirm sieht es ähnlich aus, aber die Länge des Musters ist sehr hoch, weil M1. Es wird wahrscheinlich etwas Interessantes auf den Stundenmarkern zeigen, da es gefunden wurde.


Und dieses Problem

ist es wahrscheinlich sinnvoll, beim Mining nur die erste in einer Reihe von aufeinanderfolgenden Proben zu berücksichtigen.

scheint gelöst zu sein.

  • MinStep ist eine bedingte Stufenzuweisung(MinStep * Max(|KK|)), die es erlaubt, nur die beste der aufeinanderfolgenden ähnlichen Plots gemäß der BedingungLimit zu berücksichtigen.
Aber es ist natürlich kein Bergbau (Überschreitung) dort. Obwohl es nicht weit weg ist.
 
Maxim Dmitrievsky #:

Aber ich mache das in Python und berechne die Korrelation für alle möglichen Paare auf einmal und wähle dann daraus.

Das Wichtigste ist hier die Geschwindigkeit.

Es muss eine Entsprechung in Python geben. Dann sollte es schnell sein.

Кроссплатформенная библиотека оригинальных математических функций
Кроссплатформенная библиотека оригинальных математических функций
  • www.mql5.com
Подсмотренные из разных мест оригинальные математические функции, которые либо не имеют аналогов, либо выполняют свою работу значительно быстрее, чем альтернативные реализации
 
fxsaber #:

Ich habe hier etwas Ähnliches gesehen.

Auf dem Bildschirm sieht es ähnlich aus, aber die Länge des Musters ist sehr hoch, weil M1. Es wird wahrscheinlich etwas Interessantes auf den Stundenmarkern zeigen, da es gefunden wurde.


Und dieses Problem

scheint gelöst zu sein.

Aber es ist nicht Bergbau (Overkill) dort, natürlich. Obwohl nicht weit weg.

))) Ich habe es auch gesehen

Ursprünglich war ich daran interessiert, wie man in mehrdimensionalen Arrays ohne MO nach Mustern suchen kann. Bisher ist mir noch nichts Besseres eingefallen, als alle Dimensionen in eine zu packen und über Korrelation zu berechnen (ziemlich schnell). Ich denke, manchmal müssen die Werte normalisiert werden, damit sie nicht zu unterschiedlich sind.

 
fxsaber #:

Es muss eine Entsprechung in Python geben. Dann sollte es schnell sein.

Das gibt es, aber wenn die Anzahl der Zeichen (Indikatoren) wächst, ist es immer noch nicht sehr schnell.

 

Die 3980 implementierte Conjugate-Methoden für die Typen complex, vector<complex> und matrix<complex>. Sie führen die Konjugation für komplexe Zahlen durch.

Außerdem wurde die Verarbeitung von ONNX-Modellausgaben vom Typ Sequence of maps hinzugefügt. Die Funktionalität von ONNX Runtime wurde erheblich verbessert.

Новая версия платформы MetaTrader 5 build 3980: Улучшения и исправления
Новая версия платформы MetaTrader 5 build 3980: Улучшения и исправления
  • 2023.09.21
  • www.mql5.com
В четверг 21 сентября 2023 года будет выпущена обновленная версия MetaTrader 5. В ней мы внесли ряд исправлений и улучшений в работу платформы...
 
Maxim Dmitrievsky #:

Es gibt sie, aber die Zahl der Anzeichen (Indikatoren) nimmt zwar zu, aber noch nicht sehr schnell.

Ich erinnere mich nicht mehr, aber die Komplexität des Algorithmus ist definitiv kleiner als O(N^2). Ich glaube, sie ist nicht höher als O(N*log). Deshalb ist die merkliche Verlangsamung nicht ganz klar, wenn die Vorzeichen wachsen.

Es gibt einen zweiseitigen Zusammenhang: mehr Merkmale, weniger Stichproben - geringere statistische Signifikanz.

 
Maxim Dmitrievsky #:

Ich denke, manchmal müssen die Werte normalisiert werden, damit sie nicht zu unterschiedlich sind.

Ohne Normalisierung kann es ein Chaos geben.

Forum zum Thema Handel, automatisierte Handelssysteme und Testen von Handelsstrategien

Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading

fxsaber, 2023.09.21 16:19

Dann ist es notwendig, Indikatoren zu einigen vereinheitlichten Papageien zu bringen. Selbst wenn der Indikator ist das Inkrement in verschiedenen Intervallen, sonst wird eine seltsame Korrelation herauskommen.

Wenn Nicht-Standard-Renditen, und solche,

es ist überhaupt nicht klar, was die Korrelation ohne Normalisierung zeigt. Was wäre wenn. dieser übersprungene, scheinbar logische Schritt zu einem guten Ergebnis führt.....

 
fxsaber #:

Ich weiß es nicht mehr, aber die Komplexität des Algorithmus ist definitiv geringer als O(N^2). Ich glaube, sie ist nicht höher als O(N*log). Deshalb ist die merkliche Verlangsamung, wenn die Zeichen wachsen, nicht ganz klar.

Es gibt einen zweiseitigen Zusammenhang: mehr Merkmale, weniger Stichproben - geringere statistische Signifikanz.

Nun, ich zähle auch alle möglichen Paare auf einmal. Es gibt noch eine Menge Eingabedaten, die ich ausprobieren möchte. Das ist auch gut so. Es ist nur so, dass es in STUMPY die Möglichkeit gibt, ungefähr zu zählen und dann zu verfeinern. Man erhält eine spürbare Beschleunigung, plus Parallelisierung und auf der GPU. Ich werde wahrscheinlich komplett auf dieses Paket umsteigen.

 
fxsaber #:

Hier kann der Brei ohne Normalisierung herauskommen.

Wenn es sich um nicht-standardisierte Renditen handelt, wie hier,
.

ist es nicht klar, was die Korrelation ohne Normalisierung zeigt. Was wäre, wenn... dieser übersprungene, scheinbar logische Schritt zu einem guten Ergebnis führt....

Ich werde es später analysieren, ich bin noch nicht bereit, es zu kommentieren, ich habe diese Berechnung erst gestern geschrieben.

 
Maxim Dmitrievsky #:

Ich werde es später analysieren, ich bin noch nicht bereit, einen Kommentar abzugeben, ich habe diesen Countdown erst gestern geschrieben.

Ich denke, dass die Korrelation von den größten Zahlen in Bezug auf den abs-Wert beeinflusst wird. Zum Beispiel, eine Volumenänderung von 10000 und 10100, und auf ihrem Hintergrund eine Preisänderung von 0,00040 und 0,00400 werden mikroskopisch klein sein und werden wenig Einfluss auf die Korrelation des gesamten Sets haben. Ich würde eine Normalisierung durchführen, um diese Hypothese zu testen.