Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 301

 

Hallo zusammen!!!! Schließlich geschah ein Wunder und mein Artikel wurde veröffentlicht.

https://www.mql5.com/ru/articles/2773

Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
Секвента ДеМарка (TD SEQUENTIAL) с использованием искусственного интеллекта
  • 2017.03.29
  • Mihail Marchukajtes
  • www.mql5.com
В этой статье я расскажу, как с помощью "скрещивания" одной очень известной стратегии и нейронной сети можно успешно заниматься трейдингом. Речь пойдет о стратегии Томаса Демарка "Секвента" с применением системы искусственного интеллекта. Работать будем ТОЛЬКО по первой части стратегии, используя сигналы "Установка" и "Пересечение".
 
Mihail Marchukajtes:

Hallo zusammen!!!! Schließlich geschah ein Wunder und mein Artikel wurde veröffentlicht.

https://www.mql5.com/ru/articles/2773


Großartig!) Wir werden sie in aller Ruhe lesen.
 
Mihail Marchukajtes:

Hallo zusammen!!!! Schließlich geschah ein Wunder und mein Artikel wurde veröffentlicht.

https://www.mql5.com/ru/articles/2773


ging zum Artikel, danke )
 
Andrej Dik:
Sie wissen, dass sich die Geschichte nicht wiederholt. Deshalb schlagen sie vor, dasselbe mit Zufallsdaten zu versuchen - das Ergebnis wird nicht viel anders sein (und vielleicht sogar besser als bei historischen Daten).


Ich möchte anmerken, dass Sie undfxsaber in einer Branche tätig sind, in der Ihre Behauptung auf höchst professionelle Weise widerlegt wurde. Lesen Sie Burnakovs Materialien in diesem Thread und in seinen Blogs


Abgesehen davon gibt es einen grundlegenden Punkt, der MICH von dem Muster in unseren Köpfen, das die TA gebildet hat, grundlegend unterscheidet.

Das maschinelle Lernen besteht notwendigerweise aus drei Teilen, die ein kohärentes Ganzes bilden. Diese sind:

  • Aufbereitung von Rohdaten (Datamining) - in der TA nicht vorhanden
  • automatische Suche nach Mustern. Es gibt eine Vielzahl von Algorithmen. In der TA wird dies in der Regel manuell mit dem "Auge als Diamant" durchgeführt.
  • Auswertung des Simulationsergebnisses. Im MT-Terminal wird diese Rolle von einem Tester übernommen, der die im Rahmen von MO vorhandenen Werkzeuge nur geringfügig ersetzen kann.

Der wichtigste Schritt, der sich auf das Endergebnis auswirkt, ist der erste Schritt - die Aufbereitung der Rohdaten.

Wenn Sie alle drei Schritte konsequent anwenden und wissen, was Sie tun, ist es mir persönlich gelungen, den Vorhersagefehler für einige der Zielvariablen unter 30 % zu senken. Es ist mir gelungen, den Vorhersagefehler fast sofort unter 40 % zu senken. Wenn du nur 50 % bekommst, bedeutet das, dass du etwas sehr Wichtiges in MO nicht verstehst.

 
SanSanych Fomenko:


Ich möchte darauf hinweisen, dass Sie undfxsaber sich in einem Thread befinden, in dem Ihre Behauptung professionell widerlegt wurde. Schauen Sie sich die Materialien von Burnakov in diesem Thread und in seinen Blogs an


Abgesehen davon gibt es einen grundlegenden Punkt, der MICH von dem Muster in unseren Köpfen, das die TA gebildet hat, grundlegend unterscheidet.

Das maschinelle Lernen besteht notwendigerweise aus drei Teilen, die ein kohärentes Ganzes bilden. Diese sind:

  • Aufbereitung von Rohdaten (Datamining) - in der TA nicht vorhanden
  • automatische Suche nach Mustern. Es gibt eine Vielzahl von Algorithmen. In der TA wird dies in der Regel manuell mit dem "Auge als Diamant" durchgeführt.
  • Auswertung des Simulationsergebnisses. Im MT-Terminal wird diese Rolle vom Prüfer übernommen, der die im Rahmen von MO vorhandenen Werkzeuge nur geringfügig ersetzen kann.

Der wichtigste Schritt, der sich auf das Endergebnis auswirkt, ist der erste Schritt - die Aufbereitung der Rohdaten.

Wenn Sie alle drei Schritte konsequent anwenden und wissen, was Sie tun, ist es mir persönlich gelungen, den Vorhersagefehler für einige der Zielvariablen unter 30 % zu senken. Es ist mir gelungen, den Vorhersagefehler fast sofort unter 40 % zu senken. Wenn du nur 50 % bekommst, bedeutet das, dass du etwas sehr Wichtiges in MO nicht verstanden hast.

Sie sind der Frage/Anregung meisterhaft ausgewichen, Glückwunsch! Wenn man Sie liest, vergisst man, was Sie gefragt haben..... Bei "einigen Zielvariablen" habe ich auch bei einer Zufallsreihe weniger Fehler erhalten, was soll das bringen? Meine Experimente mit den Ergebnissen sind irgendwo im 4. Forum zu finden (dies ist eine Antwort auf "Look at Burnakov's materials").
 
Maxim Dmitrievsky:

Ich werde mich jetzt in den Artikel vertiefen, danke)

Aus tiefstem Herzen, Brüder! Ihre Meinung ist mir sehr wichtig. Nach diesem Artikel wird es eine Abhandlung über Input-und Output-Variable, es wird die Philosophie natürlich, gut, und primos, wenn es schwierig ist, zu wählen....
 
SanSanych Fomenko:


Wenn Sie alle drei Schritte konsequent anwenden und wissen, was Sie tun, ist es mir persönlich gelungen, den Vorhersagefehler für einige der Zielvariablen auf unter 30 % zu senken. Es ist mir gelungen, den Vorhersagefehler fast sofort unter 40 % zu senken. Wenn Sie zufällig 50 % erhalten, dann gibt es etwas sehr Wichtiges, das Sie an MO nicht verstehen.

Wenn Sie vonOut-of-Sample-Fehlern sprechen, mit mindestens 100k Stichproben zum Testen von ordnungsgemäß aufbereiteten Daten, dann sind die Ergebnisse sehr steil, "cooler als nur Eier", sogar für HFT-Daten, auf Minuten und mehr ist es fantastisch, oder triviale Überdeckung. Bei Daten mit niedriger Frequenz verbietet Gott, dass 2-3 % einen Vorteil erhalten, dasselbe gilt für numerai.

Es ist cool, wenn es die Kursrichtung eine Sekunde im Voraus vorhersagt, mit einer Genauigkeit 65-70% (für RI) Ich kenne solche Leute, aber ihre Daten sind nicht kindisch und sie kosten entsprechend. Ich habe 60-65%, aber für meine Daten ist es auch sehr cool, ich kaufe jetzt fast nichts mehr separat, ich habe früher plaza benutzt, aber jetzt benutze ich regular quick und mt, um meine Forex-Daten zu bekommen.

 

Ein interessantes Thema. Viel Blabla, aber auch einige kluge Gedanken. Ich danke Ihnen.

 
Andrej:

Ein interessantes Thema. Viel Blabla, aber auch einige kluge Gedanken. Ich danke Ihnen.


))) Das Wichtigste ist die Kommunikation und der Prozess. Es scheint, dass einige Leute bereits neuronale Bots entwickeln. Ich würde es gerne ausprobieren.
 
Ich binnicht interessiert:

Wenn Sie von Fehlern beiOut-of-Sample sprechen, mit mindestens 100k Stichproben, um sie an ordnungsgemäß aufbereiteten Daten zu testen, dann sind die Ergebnisse sehr steil, "steiler als Eier", sogar für HFT-Daten, bei Minuten und mehr ist es fantastisch, oder ein trivialer Overfit. Bei Daten mit niedriger Frequenz verbietet Gott, dass 2-3 % einen Vorteil erhalten, ebenso bei numerai.

Es ist cool, wenn es die Kursrichtung eine Sekunde im Voraus vorhersagt, mit einer Genauigkeit 65-70% (für RI) Ich kenne solche Leute, aber ihre Daten sind nicht kindisch und sie kosten entsprechend. Ich habe 60-65%, aber für meine Daten ist es sehr cool, ich kaufe jetzt fast nichts mehr separat, ich habe früher Plaza benutzt, aber jetzt benutze ich regular quick und mt, um meine Forex-Daten zu bekommen.


Für mich ist der Vorhersagefehler nicht das Hauptproblem. Das Hauptproblem ist für mich das Übertraining des Modells. Entweder habe ich jedoch schwache Hinweise darauf, dass das Modell NICHT neu trainiert wird, oder das Modell wird überhaupt nicht benötigt.

Ich habe in diesem Thread (und auch in anderen) schon oft über die Diagnose von Übertraining und Hilfsmittel für den Umgang mit Übertraining geschrieben. Kurz gesagt, es geht darum, die Eingangsprädiktoren vom Rauschen zu befreien, und das Modell selbst ist von untergeordneter Bedeutung.

Alles andere ist für mich uninteressant, da jedes Ergebnis ohne die Überlegung eines Übertrainings nur ein laues Lüftchen ist, jetzt, vielleicht morgen, und übermorgen eine Belastung für das Depot.