Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 691
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Aber all diese statistischen Ansätze sind für Forex nicht relevant :)
nur um mir den Kopf zu zerbrechenEs kommt darauf an, wie man sich dem Markt im Allgemeinen nähert. Nachdem wir beispielsweise Prädikate ausgewählt und ein Modell erstellt haben, können wir die gleichen Metriken auf die Ergebnisse des trainierten Modells anwenden. Und wenn mehrere Modelle trainiert wurden, dann verwenden Sie diese Metriken, um das geeignete Modell auszuwählen. In vielerlei Hinsicht ist genau dies das Problem. Nachdem Sie 10 Modelle erhalten haben, müssen Sie dasjenige auswählen, das in Zukunft das beste sein wird. Und dies kann durch die Konstruktion von VI oder das gleiche Gerüst, sondern auf die Ergebnisse der Modelle erhalten.... getan werden. IMHO
Es kommt darauf an, wie man den Markt als Ganzes betrachtet. Nachdem wir beispielsweise Prädiktoren ausgewählt und ein Modell erstellt haben, können wir die gleichen Metriken auf die Ergebnisse des trainierten Modells anwenden. Und wenn mehrere Modelle trainiert wurden, dann verwenden Sie diese Metriken, um das geeignete Modell auszuwählen. Das ist in vielerlei Hinsicht das Problem. Nachdem Sie 10 Modelle erhalten haben, müssen Sie dasjenige auswählen, das in Zukunft das beste sein wird. Und dies kann durch die Konstruktion von VI oder das gleiche Gerüst, sondern auf die Ergebnisse der Modelle erhalten.... getan werden. IMHO
Meiner Meinung nach ist das auf einem sich ständig verändernden Markt zu zeitaufwändig... für mich persönlich ist es zeitaufwändiger als der Handel von Hand
Wenn wir von Effizienz sprechen, ist dieser Ansatz nicht effizient, er ist wenig effizient.
Ich bin also nicht an Data Mining um des Data Mining willen interessiert.
Herzerwärmend zu sagen!!!! In Fortführung des Themas.... Wie Sie wissen, habe ich begonnen, R zu drehen und konnte das maximale VI zwischen jeder Eingabe und Ausgabe berechnen, aber selbst das reichte aus, um die Eingabedaten von 110 auf 20-30 zu reduzieren, wobei die Eingabedaten diejenigen mit der maximalen Information über die Ausgabe blieben. Infolgedessen begannen die Modelle meine eigenen Tests immer erfolgreicher zu bestehen. Mal sehen, wie es in der Rückkopplungsschleife sein wird. Eine Woche wird es zeigen.
Aber ich denke, dass eine VI-Metrik hier nicht ausreicht. Ich sollte versuchen, die Redundanz zu berechnen und die Anzahl der Spalten zu reduzieren.
Vielleicht gibt es bereits fertige Funktionen, die es erlauben, neben der gegenseitigen Information???? Eingabedaten zur Ausgabe zu schätzen.
Ja, und ich habe in diesem Thread mehr als einmal darüber geschrieben.
Algorithmen zur Auswahl von Prädiktoren, die OHNE das maschinelle Lernmodell verwendet werden, liefern gute Ergebnisse, da die in den Algorithmus eingebauten Prädiktoren Teil des Algorithmus sind und lediglich Auskunft darüber geben, wie die Prädiktoren in diesem speziellen Algorithmus verwendet wurden, und nicht über ihre Bedeutung für die Zielvariable.
Die Algorithmen in caret sind sehr effektiv, es gibt drei von ihnen. Generell sollte man dieses Paket nehmen, weil es alles beinhaltet: Data Mining, also nicht nur die Auswahl von Prädiktoren, ein Bündel von Modellen, die Auswahl von Modellen und deren Bewertung. Auf jeden Fall kann diese Rubrik als Lehrbuch für "was passiert" verwendet werden.
Ich habe einmal einen Bericht für mich selbst erstellt, vielleicht ist er nützlich.
Voll, und dies ist nicht das erste Mal, dass ich in diesem Thread darüber schreibe.
Algorithmen zur Prädiktorenauswahl, die OHNE das maschinelle Lernmodell verwendet werden, liefern gute Ergebnisse, da die in den Algorithmus eingebetteten Algorithmen Teil dieses Algorithmus sind und lediglich darüber informieren, wie die Prädiktoren in diesem speziellen Algorithmus verwendet wurden, und nicht über ihre Bedeutung für die Zielvariable.
Ich habe einmal einen Bericht für mich selbst verfasst, der nützlich sein könnte.
Und wenn Sie darüber nachdenken? Mit diesem Ansatz geraten Sie in einen endlosen Zyklus der Merkmalsauswahl
und du lässt Beispiele fallen, bei denen die meisten Modelle auf Bäumen gebaut sind lolz :)
Meiner Meinung nach ist das auf einem sich ständig ändernden Markt zu zeitaufwändig... für mich persönlich ist es zeitaufwändiger als der Handel von Hand
und ich bin nicht an Data Mining um des Data Mining willen interessiert
Wenn man nicht die verbrauchte Rechenleistung berücksichtigt, sondern die Zeit, die für die Vorbereitung des Handels benötigt wird, ergibt sich ein recht interessantes Bild. Ich tue Folgendes.
Am Samstag verbringe ich 4-8 Stunden (Arbeitstag) für die Erstellung eines Modells und nicht eines; ich lasse den Freitag als ein Stück OOS, um den Arbeitszustand des TS zu bestimmen. Den Samstag verbringe ich also mit der Vorbereitung auf die nächste Woche. Und Sie haben völlig Recht damit, dass sich der Markt zu schnell verändert, weshalb es einfach dumm ist, Modelle für einen Zeitraum von 5 Jahren zu entwickeln. In der Regel ist es ein gutes Ergebnis, wenn TS 50% der Trainingszeit trainiert. Da ich erkannt habe, dass es keinen Sinn macht, große Modelle zu verwenden, weil die Qualität des Trainings schlechter wird (je länger die Trainingszeit, desto schlechter das Modell), habe ich eine Trainingszeit von zwei Wochen gewählt, so dass der TS mindestens eine Woche lang arbeiten konnte. Als Ergebnis erhalte ich etwa 10 Modelle, lasse die Modelle durch alle möglichen Tests laufen, und nun alle möglichen Metriken.... Ich wähle genau die aus, die diese Tests bestanden haben und stelle sie alle auf die UPU und ...... ist bis nächsten Samstag frei. Der Roboter arbeitet selbstständig, ich kontrolliere nur seine Auftragsausführung. Also... ...behalte sie im Auge, damit sie nicht stecken bleibt. Früher musste ich jeden Morgen in TS nachsehen und einen Parameter einstellen, aber jetzt bin ich dieses Problem losgeworden und besuche TSU überhaupt nicht mehr, einmal in zwei oder drei Tagen, und selbst dann, wenn es in dieser Zeit keine Geschäfte gibt, aber trotzdem ... Scheiß auf alles. Infolgedessen schätze ich meine Arbeit nicht von Geschäft zu Geschäft, sondern über Wochen hinweg. Ich mache in einer Woche Gewinn oder Verlust, und die Hauptsache ist, dass ich mehr profitable Wochen habe. Aber Tatsache ist:
Ich habe am Samstag fünf Stunden damit verbracht, die nächste Woche mit den Händen in der Hose zu verbringen, ohne an den Markt zu denken, und den Studenten alle möglichen Computertricks beizubringen. Sich hinzusetzen, um manuell zu handeln, hat einen Nachteil. Man kann den ganzen Tag vor dem Bildschirm sitzen und Geld verlieren, was nicht nur zu einem Geldverlust, sondern auch zu einem Zeitverlust führt. Und wie Sie wissen, ist Zeit eine nicht erneuerbare Ressource!!!!!
Wenn wir mit Robotern handeln, sollten wir versuchen, so wenig Zeit wie möglich auf dem Markt zu verbringen, damit wir im Falle eines Marktversagens dieses vermeiden können, indem wir ein Einkommen im realen Sektor (Arbeit, Werkstatt usw.) erzielen.
Es hat KEINEN Sinn, auf einem sich ständig verändernden Markt große Modelle zu bauen. Der einzige Unterschied besteht darin, dass kleine Modelle in der Regel bessere Trainingsergebnisse liefern und auch schneller erstellt werden können.
Was die adaptiven Marktfolgemodelle angeht, so leben auch diese Modelle nicht lange, wenn neue Daten die Struktur des Modells korrigieren. Es sei denn, es handelt sich um ein selbstlernendes System, das sich in bestimmten Zeitabständen automatisch umlernt, sich selbst auswählt usw. Es riecht offensichtlich nach Intelligenz, aber ich denke, es ist noch ein weiter Weg. IMHO, natürlich!!!!
Wenn wir von adaptiven Modellen zur Marktbeobachtung sprechen, bei denen neue Daten die Struktur des Modells selbst anpassen, halten auch solche Modelle nicht lange. Es sei denn, es handelt sich um ein selbstlernendes System, das sich in bestimmten Abständen automatisch umlernt, sich selbst auswählt usw. Es riecht offensichtlich nach Intelligenz, aber ich denke, es ist noch ein weiter Weg. IMHO, natürlich!!!!
es funktioniert und lernt ständig, dann werden die Ergebnisse seiner "Tätigkeit" von einem neuronalen Netz angenähert, und diese Schätzungen werden dann mit einer gewissen Wahrscheinlichkeit für neue Entscheidungen und deren anschließende Anpassung verwendet
Zumindest ist der Ansatz für den Devisenhandel logischer.
Grob gesagt, probiert ein solches System ständig verschiedene Zustände aus, erinnert sich daran, was es getan hat, analysiert die Folgen und trifft Entscheidungen auf der Grundlage seiner Erfahrungen... einige vergessen, andere verbessern... Es ist wie eine KI und handelt fast wie ein echter Händler :) das ist echtes Lernen und keine übliche Annäherung im Falle dessen, was wir bisher gemacht habenVoll, und dies ist nicht das erste Mal, dass ich in diesem Thread darüber schreibe.
Algorithmen zur Auswahl von Prädiktoren, die OHNE das maschinelle Lernmodell verwendet werden, liefern gute Ergebnisse, da die in den Algorithmus eingebetteten Algorithmen Teil dieses Algorithmus sind und lediglich darüber informieren, wie die Prädiktoren in diesem speziellen Algorithmus verwendet wurden, nicht aber über ihre Bedeutung für die Zielvariable.
Die Algorithmen in caret sind sehr effektiv, es gibt drei von ihnen. Generell sollte man dieses Paket nehmen, weil es alles beinhaltet: Data Mining, also nicht nur die Auswahl von Prädiktoren, ein Bündel von Modellen, die Auswahl von Modellen und deren Bewertung. Auf jeden Fall kann diese Rubrik als Lehrbuch für "was passiert" verwendet werden.
Ich habe einmal einen Bericht für mich selbst verfasst, der nützlich sein könnte.
Ich danke Ihnen! Ich habe das Caret installiert. Ich werde es ausprobieren. Aber neulich ist es mir hier klar geworden. Ich habe im Moment etwa 110 Eingaben, mehr konnte ich nicht formulieren und zusammenstellen. Ich habe es vor langer Zeit getan, vor drei oder mehr Jahren, und dachte mir, was ist, wenn diese Eingaben nicht so gut sind, wie ich sie mir vorstelle, was mich auf die Idee brachte, die Suche nach Eingaben für meinen TS!!!! wieder aufzunehmen. Zumal dies mit statistischen Kennzahlen viel einfacher zu bewerkstelligen ist. Zuerst legen wir alles auf den allgemeinen Stapel, und dann sieben wir es aus und lassen nur die nach dem einen oder anderen Kriterium wichtigen übrig.
Ich habe mich mit Denis von KD in Verbindung gesetzt, und er hat mir versprochen, mir bei der Beschaffung weiterer Daten zu helfen, die zwar ganz anderer Natur sind, sich aber auf den Markt beziehen. Ich denke jedoch, dass es nicht richtig ist, Daten für einen Zeitraum von N Balken zu nehmen, weil wir in diesem Fall der Zeitskala folgen, während wir auf der Preisskala verdienen. Daher sollte der Markt anhand der Preisskala (Profil) und nicht anhand der Zeitskala analysiert werden. Denis versprach, bei der Konstruktion des Deltaprofils usw. zu helfen. Und genau diese Daten werden für die KI interessanter sein als z. B. das Delta über N Balken. Außerdem nimmt er auch den Markt mit SME, so dass das OM erreicht werden kann, und dies zusammen mit dem Volumen wird GOGOYOYOYO!!!!! sein. Natürlich wird OM nicht das Wetter machen, aber der Zusatz von 5-10% zur Leistung von TC wird nicht schaden, denn manchmal sind es diese Prozentsätze, die fehlen......
Und wenn Sie darüber nachdenken? Mit diesem Ansatz geraten Sie in einen endlosen Zyklus der Merkmalsauswahl
und ließ Beispiele fallen, bei denen die meisten Modelle auf Bäumen gebaut sind lolz :)
Ich muss nicht nachdenken - für mich ist es eine vergangene Phase mit einem ziemlich großen Archiv an experimentellen Ergebnissen.
Ich werde wiederholen, was ich schon oft geschrieben habe.
1. Ziel ZZ
2. ich habe etwa 200 Prädiktoren für dieses Ziel erfunden
3. 27 Prädiktoren wurden mit Hilfe des Algorithmus "Einfluss auf das Ziel" aus 200 ausgewählt.
4. ich habe Prädiktoren aus 27 Prädiktoren auf jedem Balken ausgewählt und die Anzahl der ausgewählten Prädiktoren von 6-7 auf 15 von 27 geändert.
5. Fitting rf. Der Anpassungsfehler liegt bei knapp unter 30 %.
Keine unendlichen Zyklen. 30 % ist ein sehr gutes Ergebnis, aber nur theoretisch. Ich habe es nicht geschafft, einen praktischen Expert Advisor mit diesem Ergebnis zu erstellen, ich musste Trendindikatoren hinzufügen. Zurzeit ändere ich die Indikatoren für GARCH.
es funktioniert und lernt ständig, dann werden die Ergebnisse der "Aktivität" durch ein neuronales Netz angenähert, und dann werden diese Schätzungen mit einer gewissen Wahrscheinlichkeit verwendet, um neue Entscheidungen zu treffen und diese anschließend anzupassen
Zumindest ist der Ansatz für den Devisenhandel logischer.
Grob gesagt, stochert ein solches System ständig in verschiedenen Zuständen herum, erinnert sich daran, was es getan hat, analysiert die Konsequenzen und trifft Entscheidungen auf der Grundlage seiner Erfahrungen... einiges vergisst es, es wird besser... Es ist wie eine KI und handelt fast wie ein echter Trader :)Dies ist die erste Option, und die zweite besteht darin, kleine Modelle ohne Anpassung für einen relativ kurzen Zeitraum zu bauen. Sozusagen eine Plünderung des Marktes. Er kam und optimierte, nahm den Bürgerlichen ein paar gute Geschäfte ab und war bis zum nächsten Mal weg....
Prädiktoren können ausgewählt, extrahiert und erstellt werden. Bedenken Sie jedoch, dass es neben den so genannten "Rausch"-Prädiktoren auch "Rausch"-Beispiele gibt, die entweder neu aufgeteilt oder gelöscht werden müssen. Sie können das alles nachlesen und die Beispiele in den Artikeln wiederholen
Tiefe neuronale Netze (Teil III). Auswahl der Beispiele und Dimensionalitätsreduktion
Tiefe neuronale Netze (Teil II). Entwicklung und Auswahl von Prädiktoren
Tiefe neuronaleNetze (Teil I). Vorbereitung der Daten
Bewertung und Auswahl von Variablen für Modelle des maschinellen Lernens
Viel Glück!