Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 549
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Hier ist ein weiteres Beispiel für Prophet, aber für R (Python hat bei mir nie funktioniert)
Ich denke, wenn man Daten anstelle von Anführungszeichen transformiert, wird es bessere Vorhersagen machen als Arima.
und vergleichen Sie mit arima für Interesse
https://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/
Hier ist eine weitere großartige Forschungsarbeit:
https://msperlin.github.io/pafdR/research-scripts.html
Hier ist ein weiteres Beispiel für Prophet, aber für R (Python hat bei mir nie funktioniert)
Ich denke, wenn man Daten anstelle von Anführungszeichen transformiert, wird es bessere Vorhersagen machen als Arima.
und vergleichen Sie mit arima für Interesse
https://strategy.doubledoji.com/how-to-use-facebooks-prophet-algorithm-in-forex-trading/
Es sollte auf dem Bogen getestet werden. Manchmal gibt es Zeitreihen ohne Bogeneffekt, aber wenn er vorhanden ist, dann braucht er Garch, und es ist notwendig, einen bestimmten auszuwählen (es gibt viele von ihnen), und dann ist es sehr nützlich, die Verteilung zu modellieren.
Im Folgenden finden Sie zwei Auszüge aus meinem Artikel, den ich gerade fertig stelle. Sie brauchen Ihre Zeit nicht damit zu verschwenden, das Fahrrad neu zu erfinden. Sie werden es nicht besser machen als die Profis. Python und R sind bereits auf wunderbare Weise integriert. Verwenden Sie einfach.
"Verwendung der TensorFlow-Bibliothek".
Das aufkeimende Feld der tiefen neuronalen Netze wurde kürzlich durch eine Reihe von Open-Source-Bibliotheken bereichert. Das weithin beworbeneTensorFlow (Google),CNTK (Microsoft),Apache MXNet und viele andere. Da alle diese und andere wichtige Softwareentwickler dem R-Konsortium angehören, wird für alle diese Bibliotheken eine API zu R bereitgestellt.
Alle oben genannten Bibliotheken sind sehr einfach aufgebaut. Für Anfänger in diesem Bereich sind sie schwer zu verdauen. Vor diesem Hintergrund hat das Rstudio-Team daskeras-Paket für R entwickelt.
Keras ist eine High-Level-API für neuronale Netze, bei deren Entwicklung der Schwerpunkt auf der Möglichkeit lag, schnell zu experimentieren. Der Schlüssel zu guter Forschung ist die Fähigkeit, möglichst schnell von der Idee zum Ergebnis zu kommen. Keras hat die folgenden Hauptmerkmale:
Installieren und laden Sie einfach das keras R-Paket herunter und führen Sie dann die Funktion keras :: install_keras () aus, die TensorFlow, Python und alles andere installiert, was Sie benötigen, einschließlich Virtualenv- oderConda-Umgebungen. Es funktioniert einfach! Eine Anleitung zur Installation von Keras und TensorFLow auf GPUs finden Sie unter.Hier. Weitere Einzelheiten finden Sie indem Artikel".
"Das tfruns-Paket ist zum Experimentieren mit TensorFlow gedacht. Dastfruns-Paket bietet eine Reihe von Werkzeugen, um TensorFlow-Training und Experimente von R aus zu steuern:
TensorBoard bietet die beste Visualisierung des Prozesses und der Ergebnisse des DNN-Trainings.
Und natürlich können Deep-Learning-Kenner direkt mit der Low-Level-Bibliothek TensorFlow arbeiten, indem sie das Tensorflow-Paket verwenden.
Alle diese Pakete basieren auf der grundlegenden -retikulierten- R-Schnittstelle zu Python-Modulen, -Funktionen und -Klassen. Beim Aufruf in Python werden die R-Datentypen automatisch in ihre entsprechenden Python-Typen konvertiert. Wenn Werte von Python nach R zurückgegeben werden, werden sie wieder in R-Typen konvertiert. Es lohnt sich, sie sorgfältig zu studieren.
Alle diese Pakete sind gut dokumentiert, was angesichts der Entwicklerklasse nicht verwunderlich ist, und werden mit zahlreichen Beispielen versehen und ständig weiterentwickelt. So haben wir die einmalige Gelegenheit, in Experten und Indikatoren die modernsten und fortschrittlichsten Deep-Learning-Modelle (DNN, RNN, CNN, LSTM, VAE usw.), Reinforcement Learning (RL) und viele andere Entwicklungen von Python im Bereich des maschinellen Lernens zu verwenden, wenn Sie über genügend Wissen und Erfahrung verfügen".
Viel Glück!
gleichzeitig wird die Komplexität der Strategien und die Menge an Arbeit zu viel für 1 Person, die sich nicht professionell mit Date-Satanismus beschäftigt :) obwohl dies nur auf den ersten Blick sein mag
Die Integration von Python und MT ist fast abgeschlossen. Ich musste eine zusätzliche DLL schreiben. Es gibt noch ein paar Kleinigkeiten. Beenden Sie mqh und schreiben Sie das Dokument. Die Bibliothek hat nicht viele Funktionen, aber sie ist ausreichend. Es ist möglich, ein Python-Skript zu laden und auszuführen. Und auch eine beliebige Funktion davon aufrufen. Es funktioniert mit Listen, aber nur eindimensional und homogen. D.h. ein MQL-Array wird in eine Liste umgewandelt und zurück.
Aber das R-Tutorial ist gut... von Grundlagen und linearen Modellen bis hin zu Garch und Facebook-Prophet...(nicht umsonst lade ich Prophet hier hoch, da es in bestimmten Kreisen auf Interesse stößt und mega-einfach zu bedienen ist) fast dasselbe wie für Python, aber ausführlicher, vom R-Lehrer
Im Allgemeinen ist es natürlich logisch, von der Ökonometrie zu den neuronalen Netzen überzugehen und nicht umgekehrt, d.h. zu studieren, was bereits vorhanden ist (wenn man nicht an der Universität studiert hat), was einen Sinn für die Reflexion hätte, und sich dann in die Netze zu versenken
Und ganz allgemein ist zu beachten, dass neuronale Netze in der Ökonometrie eine Sonderstellung einnehmen und (noch) nicht das Hauptthema sind.
https://msperlin.github.io/pafdR/
Im Allgemeinen ist es natürlich logisch, von der Ökonometrie zu den neuronalen Netzen überzugehen und nicht umgekehrt, d. h. etwas zu studieren, das bereits existiert (wenn man es nicht an der Universität studiert hat), um etwas zum Nachdenken zu haben, und dann in die Netze einzusteigen
Und ganz allgemein ist zu beachten, dass neuronale Netze in der Ökonometrie eine Sonderstellung einnehmen und (noch) nicht das Hauptthema sind.
https://msperlin.github.io/pafdR/
Vor einigen Jahren interessierte ich mich für Matlab und im Gegensatz zu meinen Vorstellungen von den Werkzeugen der Ökonometrie gab es in der Toolbox unter dem Namen "Econometrics" NUR GARCH-Modelle.
Am Ende habe ich mich für ME entschieden. Was mich am meisten überraschte, waren die sehr dürftigen Veröffentlichungen über die Anwendung von MO auf den Finanzmärkten.
Kürzlich kehrte ich zu GARCH zurück und war erstaunt über die Fülle von Veröffentlichungen zur Anwendung von GARCH auf den Finanzmärkten: Börsen, Indizes, Futures, Währungspaare. Es ist einfach ein Riesenspaß.
Vielleicht hat Matlab also recht? Vielleicht sind alle IO-Instrumente, einschließlich der NS, Instrumente Dritter für die Finanzmärkte?
Vielleicht hat Matlab also recht? Vielleicht sind alle IO-Tools, einschließlich NS, Drittanbieter-Tools für die Finanzmärkte?
Nun, ja, es handelt sich nicht um fertige ökonometrische Modelle, sondern lediglich um ein für alle Bereiche gültiges Instrumentarium.
Bei der nichtparametrischen Ökonometrie geht es nur um IR und unscharfe Logik, aber ich habe noch keine eindeutigen Ergebnisse gesehen, vielleicht weil einige gemeinsame Ansätze noch nicht ausgearbeitet wurden. Ich weiß nicht, wie man es macht, aber ich habe einige allgemeine Ansätze gesehen).