Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 362

 
Dr. Trader:

Eine Zusammenfassung der letzten hundert Seiten :)

Neuronics und fast alle anderen populären Modelle sind sehr weit von künstlicher Intelligenz entfernt. Sie können einfach solche Kombinationen von Prädiktorwerten finden, die die gewünschte Lerngenauigkeit erreichen, und bei künftigen Prognosen interpolieren (oder extrapolieren) sie gewissermaßen die vergangenen Ergebnisse, um eine neue Prognose zu erhalten.

Das heißt, wenn wir zum Beispiel Ma, Rci und Stochastic als Prädiktoren nehmen und das neuronale Netz mit Zickzack-Umkehrungen als Trainingsziel trainieren, sagen wir dem neuronalen Netz: "Diese drei Prädiktoren können Umkehrungen vorhersagen. Und das neuronale Netz selbst wird nicht wissen, ob diese Prädiktoren wirklich passen. Es wird sich diese Daten mit akzeptabler Genauigkeit merken, und beim Handel werden wir hoffen, dass die gleichen Kombinationen von Ma, Rci und Stochastic vor der Umkehrung gespeichert werden. Aber sie werden es nicht tun, und es wird scheitern.

Ein Modell, das mit unbrauchbaren Prädiktoren trainiert wurde, wird scheitern, selbst wenn es sich um gbm, ein neuronales Netz oder eine Regression handelt. Sie können sogar zufällige Reihen erzeugen und sie als Prädiktoren verwenden, die Neuronen werden wiederkehrende Kombinationen unter ihnen finden und sich diese merken.
Es ist die Aufgabe eines menschlichen Data Miners, Prädiktoren und den Zweck des Trainings mit Hilfe anderer Tools auszuwählen. Und die Ausbildung des Modells (des Neurons) ist ein winziger vorletzter Schritt.

Die Prädiktoren müssen sowohl in der Vergangenheit als auch in der Zukunft eine Korrelation mit dem Ziel in den Trainingsdaten aufweisen. Aus diesem Grund empfiehlt SanSanych, das Modell mit verschiedenen Dateien zu testen, um sicherzustellen, dass die gefundenen Abhängigkeiten nicht mit neuen Daten verschwinden.
Das heißt, wir untersuchen und erfassen sorgfältig die Prädiktoren und das Ziel, trainieren das Modell und testen es. Dann testen wir das Modell mit völlig neuen Daten. Wenn die Vorhersagegenauigkeit in beiden Fällen nicht übereinstimmt, sind die Prädiktoren oder das Ziel nicht geeignet. Wir sollten uns nach einem anderen umsehen.


Meiner Meinung nach ist die Neuronik für die Vorhersage nicht-stationärer Zeitreihen nicht geeignet. Das Preisverhalten ändert sich ständig, die gefundenen Muster funktionieren nach Stunden nicht mehr, alles ist chaotisch. Und dann nimmt jemand ein Neuroncu, gibt ihm Preise für ein paar Monate und bittet darum, die Abhängigkeiten zu finden, die sich während dieser Zeit wiederholen. Aber es gibt keine sich wiederholenden Abhängigkeiten, und was das Neuron finden und sich merken kann, ist nur ein 100%iger Zufall.

Wenn wir ein Neuron nehmen, dann können wir ihm nur verarbeitete Preise (und nicht reines Ohlc) geben, wie zum Beispiel Indikatoren.


Warum bist du so engstirnig, jeder schreibt hier, als hättest du noch nie etwas Süßeres als eine Karotte gesehen )) Kümmern Sie sich nicht um Prädiktoren, lehren Sie das Neuron, diese Prädiktoren zu finden, lehren Sie das Neuron, das Neuron zu lehren, experimentieren Sie :) Offensichtlich ist es sehr dumm, einfache Indikatoren zu nehmen, sie im Zickzack in den Input und den Output einzugeben, ich weiß nicht, warum alle darüber diskutieren :) Und natürlich ist das keine KI, es ist nur eine Klassifizierung, man braucht überhaupt keine Neuronen! Sie können mit einem Bayes'schen Klassifikator
 
Maxim Dmitrievsky:

Warum so engstirnig denken, jeder hier schreibt, als hätte er noch nie etwas Süßeres als eine Karotte gesehen )) Scheiß auf Prädiktoren, lehre das Neuron, diese Prädiktoren zu finden, lehre das Neuron, das Neuron zu lehren, experimentiere :)
Ich denke, dass neuronka unbrauchbare Prädiktoren auf 0 setzen sollte - und sie werden die Ausgabe nicht beeinflussen! Der einzige Unterschied besteht in der Berechnungsgeschwindigkeit zwischen allen Prädiktoren und der Hälfte der wichtigsten Prädiktoren. Aber auch das ist wichtig.
 
elibrarius:
Es scheint mir auch, dass die Neuronen die nutzlosen Prädiktoren auf 0 setzen sollten - und sie werden die Ausgabe nicht beeinflussen! Der einzige Unterschied wäre die Berechnungsgeschwindigkeit zwischen allen Prädiktoren und der Hälfte der wichtigsten Prädiktoren.

Das ist, wie Neuronics für ressourcenintensive Aufgaben erstellt wurden, das einzige Problem ist, dass in mt5 es sehr begrenzt ist. Man kann sehr komplexe, originelle und nicht offensichtliche Modelle erstellen, erst dann wird das Potenzial der Anwendung von NS offengelegt, aber sicherlich nicht in den Techniken, die hier besprochen werden, es ist wie die Grundlagen für Anfänger :) Wenn Sie nicht über genügend Kapazität verfügen, gibt es Server für die Ausbildung von NS... Alles, was man in 5-30 Minuten an einem normalen PC trainieren kann, ist meiner Meinung nach nicht neuronal und primitiv :)
 
Maxim Dmitrievsky:

Dies ist, wie Neuronen für ressourcenintensive Aufgaben erstellt wurden, das einzige Problem ist, dass in mt5 es sehr schlecht ist. Sie können sehr komplexe, originelle und nicht offensichtliche Modelle erstellen, erst dann wird das Potenzial der NS-Anwendung enthüllt, aber sicherlich nicht in den Techniken, die hier diskutiert werden, es ist wie die Grundlagen für Anfänger :)

Warum? Ich plane, Neuronics in reiner MQL für die Optimierung zu verwenden (um Parameter von Indikatoren zu wählen) und es in einem Netzwerk oder in der Cloud laufen zu lassen. 20000 Agenten können zählen - was die Geschwindigkeit betrifft, ist es unmöglich, mit einem R zu vergleichen. Obwohl es scheint, dass R auch Aufgaben an die Azure-Cloud verteilt

 
elibrarius:

Nun, warum? Ich plane, Neuronics in reinen MQL für die Optimierung zu verwenden (um Parameter für Indikatoren zu wählen) und führen Sie es auf dem Netzwerk oder in der Wolke. 20000 Agenten können zählen - kein R kann sich in Sachen Geschwindigkeit mit einem anderen messen


Ich meine, dass Neuronen in mt5 sind nicht genug, nur eine :)
 
Maxim Dmitrievsky:

Ich meinte, dass Neuronen in mt5 sind wenige, nur eine :)
Nun, das Wichtigste ist immer noch die Qualität der Eingabedaten, wenn man sie hat, dann wird sogar 1 Neuron das Problem lösen
 
elibrarius:
Nun, das Wichtigste sind immer noch qualitative Eingabedaten, wenn man sie hat, dann wird 1 Neuron das Problem lösen.

Nein, das wird es nicht. Wenn du die Probe erhöhst, wird dein Neuron vor Stress schrumpfen und platzen :) Es wird nicht in der Lage sein, sich einer solchen Probe anzunähern und wird permanent 0,5
 
Maxim Dmitrievsky:

Nein, das wird es nicht. Wenn Sie die Probe erhöhen, wird Ihr Neion vor Stress schrumpfen und platzen :) Es wird nicht in der Lage sein, eine solche Probe anzunähern und wird am Ausgang ständig 0,5 erzeugen

0,5 wird zu 0,5, wenn alle Eingaben einen Multiplikator von 1 haben. Aber wenn das Netz lernt und den Multiplikator für unbedeutende Eingaben auf 0 und für die wichtigsten auf 1 setzt, dann ist alles in Ordnung. Die Ausgabe wird natürlich nicht 1 sein, aber zum Beispiel reagieren, wenn die Ausgabe >0,8 ist

Aber leider gibt es keine Indikatoren, die mit den richtigen Ergebnissen korrelieren würden. Daher wird es sicherlich zu Rückgängen kommen. Sie müssen nur die Wahrscheinlichkeit auf Ihre Seite biegen
 
elibrarius:

0,5 ist, wenn alle Eingänge einen Multiplikator = 1 haben. Und wenn das Netz lernt und die unbedeutenden Eingänge auf 0 und die wichtigsten Eingänge auf 1 setzt, dann ist alles in Ordnung. Die Ausgabe wird natürlich nicht 1 sein, aber zum Beispiel reagieren, wenn die Ausgabe >0,8 ist

Aber leider gibt es keine Indikatoren, die mit den richtigen Ergebnissen korrelieren würden. Aus diesem Grund sind Rückschläge vorprogrammiert. Sie müssen nur die Wahrscheinlichkeit zu Ihren Gunsten verändern.

Es ist nicht so, dass sie nicht korreliert sind, sie werden sich widersprechen, wenn die Stichprobe zunimmt, ja, am Ende ist entweder die Ausgabe immer 0 oder 1, oder 0,5... außerdem für 1 Neuron. Wenn also >0,5 verkaufen und <0,5 kaufen. Sie setzen korrekte (Ihrer Meinung nach) Prädiktoren und korrekte Antworten, d.h. wenn psi überverkauft ist und der Markt in den nächsten n-Balken steigt, dann geben Sie 0 aus, und wenn psi überkauft ist und der Markt sinkt, dann geben Sie 0 aus. Aber es wird viele Fälle geben, in denen es umgekehrt ist und er abstumpft, die Signale durcheinanderbringt und in Trance verfällt. Als Ergebnis wird die Ausgabe immer um 0,5 mit sehr kleinen Abweichungen in die eine oder andere Richtung sein... und es wird mit allen Oszillatoren passieren, weil sie überhaupt keine Prädiktoren sind, sie sind Ableitungen des Preises :)
 
Dr. Trader:

Wenn wir also z. B. Ma, Rci und Stochastic als Prädiktoren nehmen und das neuronale Netz mit Zickzack-Umkehrungen als Trainingsziel trainieren, sagen wir dem neuronalen Netz: "Diese drei Prädiktoren können Umkehrungen vorhersagen. Und das neuronale Netz selbst wird nicht wissen, ob diese Prädiktoren wirklich passen. Es wird sich diese Daten mit akzeptabler Genauigkeit merken, und beim Handel werden wir hoffen, dass die gleichen Kombinationen von Ma, Rci und Stochastic vor der Umkehrung gespeichert werden. Aber sie werden es nicht tun, und es wird scheitern.

IMHO ist es besser, sich Klassifizierung und Regression als verschiedene Arten von Mittelungspunkten in N-d in der Nähe eines Kerns vorzustellen, wie es z. B. bei kNN der Fall ist, der als "idealer" Approximator gilt, aber langsam und unpraktisch ist. Bei der Klassifizierung werden nur die Antworten gemittelt, bei der Regression werden Fiches und Antworten gemittelt. Wenn bei dieser Mittelwertbildung widersprüchliche Punkte vermischt werden, ist das Ergebnis natürlich verrauscht und nicht ausgeprägt.