Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 593
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Konzentrierte Vorwärtsausbreitungsnetze mit Zeitverzögerungen
Bei der Erkennung von Strukturmustern werden üblicherweise statische neuronale Netze verwendet. Im Gegensatz dazu müssen bei der Erkennung von Zeitmustern Bilder verarbeitet werden, die sich im Laufe der Zeit verändern, und es muss zu einem bestimmten Zeitpunkt eine Reaktion erzeugt werden, die nicht nur von den aktuellen, sondern auch von mehreren früheren Werten abhängt.
Gibt es so etwas? :) Genau diese Art von Architekturen funktioniert theoretisch auch bei Forex... aber man muss experimentieren. Es ist einfach zu machen, fügen Sie einfach ein paar "interessante" Neuronen zu MLP hinzu oder verbinden Sie 2 Modelle.
Woher bekommen Sie das Modell?
Ich werde es selbst tun ) habe es noch nicht zu Ende gelesen, es gibt viele interessante Dinge in Büchern, wie sich herausstellt
Aber die Idee des "Gedächtnisses" für Märkte sollte gut sein... aber nicht super langsam wiederkehrend, sondern etwas einfacheres und spezielleres
Das einfachste Beispiel:
Unter einem externen "Shifter" können wir etwas f-aus z. B. früheren Trades, Volatilität oder anderen Hyperparametern des Systems verstehen
Besser wäre es jedoch, wenn der Shifter in 1 oder mehrere Neuronen eingebettet wäre, dann wäre es so, als ob er nicht-linear wäre
Hoffen Sie nicht, dass ein neuartiges Neuronkey- oder Python-Paket auftaucht, das alle Probleme lösen wird - und dass es kein Modell-Overfitting geben wird, und dass es keine Angst vor Nicht-Stationarität usw. haben wird.
Unabhängig davon, wie ausgefallen das Modell ist, basiert es auf einem einfachen Prinzip - es nimmt Daten zum Training, die von einem Menschen vorbereitet wurden, und das Modell erstellt lediglich eine vereinfachte Beschreibung, wie das Ergebnis aus den Eingabedaten zu berechnen ist. Dies ist nicht weit von der Vorhersage des nächsten Nachbarn entfernt, aber herkömmliche Modelle sagen um Größenordnungen schneller voraus (obwohl sie eine lange Lernzeit benötigen), weshalb sie beliebter sind.
Der Schlüsselbegriff ist "von Menschen geschulte Daten". Wenn der Experte die Daten korrekt aufbereitet, dann können Sie sie verwenden, um das Modell zu trainieren und gewinnbringend zu handeln. Sehen Sie sich zum Beispiel die Tabellen für Training und Test an, die von SanSanych, Vizard und Michael geteilt wurden.
Ich bin erstaunt, wenn ich sie anschaue. Und keine erstaunlichen rnn-Neuronen mit nichtlinearen Eingangsfiltern und Dutzenden von Schichten werden das für Sie tun.
Hoffen Sie nicht, dass ein neuartiges Neuronkey- oder Python-Paket auftaucht, das alle Probleme lösen wird - und dass es kein Modell-Overfitting geben wird, und dass es keine Angst vor Nicht-Stationarität usw. hat.
Unabhängig davon, wie ausgefallen das Modell ist, basiert es auf einem einfachen Prinzip - es nimmt Daten zum Training, die von einem Menschen vorbereitet wurden, und das Modell erstellt lediglich eine vereinfachte Beschreibung, wie das Ergebnis aus den Eingabedaten zu berechnen ist. All dies ist nicht weit von der Vorhersage des nächsten Nachbarn entfernt, aber die üblichen Modelle sagen um Größenordnungen schneller voraus (auch wenn es lange dauert, sie zu trainieren), weshalb sie beliebter sind.
Das Schlüsselwort ist "vom Menschen aufbereitete Daten für das Lernen". Wenn der Expert Advisor die Daten korrekt aufbereitet, dann können Sie sie nutzen, um das Modell zu trainieren und gewinnbringend zu handeln. Nehmen Sie zum Beispiel die Tabellen für Training und Test, die von SanSanych, Vizard und Michael gepostet wurden.
Ich bin erstaunt, wenn ich sie anschaue. Und keine erstaunlichen rnn-Neuronen mit nichtlinearen Eingangsfiltern und Dutzenden von Schichten werden das für Sie tun.
Leider (vielleicht nur für mich) ist das meiste, was hier diskutiert wird, Neurostatik. Es braucht wirklich sehr gut aufbereitete Daten, deren statistische Eigenschaften sich im Laufe der Zeit nicht ändern, daher die vielen verschiedenen Möglichkeiten der Auswahl und Filterung von Prädiktoren. Ich finde diesen Ansatz wegen der Vorverarbeitung sehr schwierig.
Aber wir können die Neurodynamik mit verschiedenen Varianten des "Gedächtnisses" und adaptiven Dingen betrachten... das scheint mir ein einfacherer und natürlicherer Ansatz zu sein, und ich bin mir über die Effizienz nicht sicher, es hängt davon ab, wie man es macht.
Es kommt darauf an, von welchem Standpunkt aus man den Markt betrachtet - als eine Reihe von Mustern oder als ein System, das sich nach bestimmten Gesetzen entwickelt.
Aber man könnte die Neurodynamik mit verschiedenen Varianten von "Gedächtnis" und adaptiven Dingen betrachten... das scheint mir ein einfacher und natürlicher Ansatz zu sein, und ich bin mir nicht sicher, was die Effizienz angeht, es hängt davon ab, wie man es macht.
...
die sich nach bestimmten Gesetzen entwickeln.
...
Das muss zweifellos untersucht werden. Aber die Menschheit hat noch kein geeignetes Werkzeug erfunden (zumindest nicht im öffentlichen Bereich).
lstm-Neuronen sind für dieses Thema recht interessant, da sie Zeitreihen mit weniger Neuronen genauer beschreiben können als herkömmliche Neuronen. Das Problem bei ihnen ist jedoch die Überanpassung.
Nehmen wir an, Sie können durch das Training von regulären Neuronen einige Daten für die Kreuzvalidierung extrahieren und so mit Überfütterung umgehen. Aber für lstm neuronka ist es wichtig, die Reihenfolge der Datenankunft, jede neue Vorhersage verwendet interne neuronka Zustand und ändert es. Infolgedessen wird die gesamte Zeitreihe in strenger Reihenfolge vorhergesagt, wobei jede Vorhersage von der Vergangenheit abhängt und die Zukunft beeinflusst. Wenn einige Beispiele nach dem Zufallsprinzip für die spätere Verwendung in der Kreuzvalidierung entfernt werden, wird die Reihenfolge unterbrochen, was schlecht ist und das gesamte Training in Frage stellt. Wenn wir die Daten nacheinander in zwei Teile für Training und Test aufteilen, erhalten wir wieder eine Überanpassung, da dies in Forex nicht hilfreich ist.
Alles, was man tun kann, ist, lstm auf maximale Genauigkeit zu trainieren und zu hoffen. Aber Forex verzeiht solche Verantwortungslosigkeit nicht.
Wenn dieses Problem gelöst ist, wird es möglich sein, einen Gral zu schaffen.
MMS an sich ist weder schlecht noch gut. Die Syntax ist der von C++ sehr ähnlich. Im Allgemeinen handelt es sich um eine Standardsprache. Das Problem liegt in der Verfügbarkeit der dafür benötigten Bibliotheken. Aber sie fehlen entweder oder sind von schlechter Qualität. Deshalb müssen wir Python integrieren. Ich habe bereits einen Link zu seiner Integration in MQL angegeben. Ich werde Ihnen noch eine weitere geben. Die Bibliothek ist jetzt gut nutzbar. Sie können es jetzt herunterladen.
Dies muss zweifelsohne untersucht werden. Aber die Menschheit hat noch kein geeignetes Werkzeug erfunden (zumindest nicht im öffentlichen Bereich).
lstm-Neuronen sind für dieses Thema sehr interessant, da sie Zeitreihen mit weniger Neuronen genauer beschreiben können als herkömmliche Neuronen. Das Problem bei ihnen ist jedoch die Überausstattung.
Nehmen wir an, Sie können durch das Training von regulären Neuronen einige Daten für die Kreuzvalidierung extrahieren und so mit Überfütterung umgehen. Aber für lstm neuronka ist es wichtig, die Reihenfolge der Datenankunft, jede neue Vorhersage verwendet interne neuronka Zustand und ändert es. Infolgedessen wird die gesamte Zeitreihe in strenger Reihenfolge vorhergesagt, wobei jede Vorhersage von der Vergangenheit abhängt und die Zukunft beeinflusst. Wenn einige Beispiele nach dem Zufallsprinzip für die spätere Verwendung in der Kreuzvalidierung entfernt werden, wird die Reihenfolge unterbrochen, was schlecht ist und das gesamte Training in Frage stellt. Wenn wir die Daten nacheinander in zwei Teile für Training und Test aufteilen, erhalten wir wieder eine Überanpassung, da dies in Forex nicht hilfreich ist.
Alles, was man tun kann, ist, lstm auf maximale Genauigkeit zu trainieren und zu hoffen. Aber Forex wird eine solche Verantwortungslosigkeit nicht verzeihen.
Es bedarf jahrelanger akademischer Arbeit zum Thema der Überbrückung von lstm-Neuronen, wenn dieses Problem gelöst ist, können wir damit beginnen, den Gral zu schaffen.
Sie brauchen ein ns, das in Forex mit sich selbst spielt :) es ist nicht lstm. lstm benutzt BP nicht als externen Agenten, der ihm auf die Stirn tritt, wenn er einen Fehler macht
Yuri hat bereits darüber geschrieben, um es kurz zusammenzufassen.
MMS an sich ist weder schlecht noch gut. Die Syntax ist der von C++ sehr ähnlich. Im Allgemeinen handelt es sich um eine Standardsprache. Das Problem liegt in der Verfügbarkeit der dafür benötigten Bibliotheken. Aber sie fehlen entweder oder sind von schlechter Qualität. Deshalb müssen wir Python integrieren. Ich habe bereits einen Link zu seiner Integration in MQL angegeben. Ich werde Ihnen noch eine weitere geben. Die Bibliothek ist jetzt gut nutzbar. Herunterladen.
Danke für die Mühe, wir werden sie später nutzen, ich habe sie für mich aufgespart.
Ich kann nicht schlafen und habe ein wenig im Internet gelesen. Das hat mir gefallen:
"Die Tatsache, dass Inkremente verwendet werden, ist vor dem allgemeinen Hintergrund nicht ganz so schlimm, die meisten logarithmischen Preise werden der Eingabe zugeführt, Inkremente sind ein Schritt nach vorne, obwohl beides passend ist.
Ich kenne Leute, die den Gral von NS gezogen haben, aber diese Jungs sind so geschlossen für die Kommunikation und sogar Hinweise über das, was sie tun, ich bin ein Anfänger so definitiv keine Chance haben. Ich weiß nur, dass alles kompliziert ist, es ist nicht Vels, nicht Metatrader und auch nicht S#, und C++ und MatLab mit einigen Chips, die Daten dekodieren und interpretieren, die von Calidern kommen, es stellte sich heraus, dass dies ein und dieselbe Methodik ist, hörte ich und bekam Angst, sie arbeiten mit Onkel, der Terabytes pro Tag am CERN auf der Suche nach neuen Teilchen im Quantenchaos zu mahlen pflegte.
Das ist witzig. Ich bleibe bei meiner Meinung - es ist notwendig, die reinsten, wie eine Träne, Preiserhöhungen zu NS-Input zu füttern. Es sind die Schritte, die der Schlüssel zu allem sind. Sie bilden die Grundlage für die Lösung dieses Problems. In der Tat folgen wir in Forex einem pseudostationären Prozess der Bewegung eines Wellenpakets (Wahrscheinlichkeitsdichtefunktion) dieser Inkremente. Und nichts weiter. (Diesen Absatz habe ich bereits geschrieben :)))