Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2645
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Das kann durchaus der Fall sein. Aber es scheint ein besser interpretierbarer Ansatz für den Vergleich/die Auswahl von Merkmalen und die Optimierung von Metaparametern zu sein.
Was ist mit den assoziativen Regeln, die nicht funktioniert haben?
Die Idee ist im Allgemeinen klar. Auf jeden Fall müssen wir uns zunächst einen Algorithmus zur Partitionierung einer kontinuierlichen Menge von Prädiktoren in diskrete Elemente ausdenken, aus denen die Regeln gebildet werden. Wenn solche guten Prädiktoren und ihre gute Partitionierung tatsächlich existieren und gefunden werden, ist der Rest eine Frage der Technik.
Die Idee ist im Allgemeinen klar. In jedem Fall müssen wir uns zunächst einen Algorithmus zur Partitionierung einer kontinuierlichen Menge von Prädiktoren in diskrete Elemente ausdenken, aus denen Regeln gebildet werden. Wenn solche guten Prädiktoren und ihre gute Partitionierung wirklich existieren und gefunden werden, ist der Rest eine Frage der Technik.
Experimentieren mit symbolischer Regression...
Im Grunde werden sequenziell-assoziative Regeln implementiert, aber anstelle von statischen Elementen - logische Regeln. Dies verleiht dem Algorithmus mehr Tiefe, er kann seine Beobachtungen viel subtiler verstehen. Dieses Konzept ermöglicht es, jede Art von Regelmäßigkeit zu beschreiben, da die Komplexität und die Art der Regeln durch nichts begrenzt sind.
Es gibt einen Wermutstropfen: Der Algorithmus kann es sich nicht leisten, große Datenfelder zu untersuchen, da er aufgrund der Besonderheiten seiner Architektur sehr lang ist.
Daher habe ich mir einige Ansätze ausgedacht, um die Dimensionalität der Suche zu reduzieren.
1) Ich interessiere mich nur für die Extreme, wenn wir uns auf sie konzentrieren, verkleinern wir den Suchraum um das 10-20-fache, und eigentlich ist alles, was wir vom Markt brauchen, zu wissen, ob es sich um eine Umkehrung handelt oder nicht, Trends-Schmends, Flatts-Schmets... das ist subjektiver Mist, der uns daran hindert, uns auf das Wesentliche zu konzentrieren.
2) Ich habe so etwas wie "One-Shot-Learning" erfunden und implementiert, jetzt muss ich nicht mehr die ganze Geschichte berechnen, um etwas zu lernen, das ist kein cooles Know-How, sondern eher eine Verzweiflungstat, denn das Lernen über die ganze Geschichte wird nicht funktionieren, zumindest noch nicht.
Bisher gibt es nur die ersten Experimente, aber ich kann mit Sicherheit sagen, dass der Algorithmus nicht völlig dumm ist und etwas zu lernen.
Der Handelsalgorithmus selbst besteht aus Mustern, ein Muster ist ein Satz von Regeln für eine bestimmte Situation.
So sieht ein Muster für eine bestimmte Situation aus.
Die Regeln sind primitiv, aber wir wärmen uns gerade erst auf).
Das Muster wird wie ein Wald gehandelt, es gibt viele Regeln in dem Muster, wenn ein bestimmter Schwellenwert von Regeln ausgelöst wird, URAH erkennen wir die Umkehrung und handeln sie.
Es sieht in etwa so aus.
Es ist so.
Was ist das Schöne an diesem Algorithmus?
1) Er gräbt sich tief in das Muster ein, wenn ich das so sagen darf.
2) Er ist nicht an Indizes gebunden und arbeitet nicht mit tabellarischen Daten, so dass er resistent gegen Nicht-Stationarität sowie gegen assoziative Regeln ist.
Übrigens, das könnte für jemanden interessant sein.
Sehr oft, wenn der Abprall nicht funktioniert, dann wird der Widerstand zur Unterstützung.
wie auf dem Bild.
Und es kann erklärt werden, also die Ebenen sind da, sie können nicht nicht da sein.
Ich denke über die Möglichkeit nach, meine Idee mit der Idee des PRIM-Algorithmus zu kombinieren. Ich habe nicht viel, womit ich prahlen kann.
Seltsamerweise enthält dieser PRIM die gleichen Ideen, die ich zu verwirklichen versuche.
Ich habe den Artikel gelesen, aber es gibt einige Verwirrungen:
1. Was ist das Quantisierungsverfahren für die Grenzpartitionierung? Handelt es sich um eine einheitliche Partitionierung mit einem bestimmten Schritt?
2. Das mit den Grenzen ist klar - ich mache es selbst, aber sie haben einen zusätzlichen Ausschnitt im Bild - ist der zweite Ausschnitt ein dummer Ausschluss des Sampling?
3. wenn ich es richtig verstanden habe, betrachten sie, wie ich, jeden Prädiktor separat - und finden so genannte "Boxen", aber ich habe in der Beschreibung nicht verstanden, wie diese verschiedenen Prädiktoren kombiniert werden.
Der Nachteil dieser Methode ist, dass sie die Stabilität der Indikatoren durch Bootstrap-Stichproben(zufällige Entnahme eines bestimmten Prozentsatzes der Stichprobe aus der gesamten Stichprobe) bewertet, was kein Verständnis für die Dynamik der Stabilität der Indikatoren vermittelt, was wiederum für den Handel wichtig ist, da das Muster zu Beginn der Stichprobe vorhanden sein kann, aber am Ende der Stichprobe vollständig verschwindet.
Haben Sie irgendwelche Verbesserungsvorschläge für diese Methode?
Experimentieren mit symbolischer Regression.....
Im Grunde werden sequenzielle asoziative Regeln implementiert, aber anstelle von statischen Elementen - logische Regeln. Dies verleiht dem Algorithmus mehr Tiefe, er kann seine Beobachtungen viel subtiler verstehen. Dieses Konzept ermöglicht es, jede Art von Regelmäßigkeit zu beschreiben, da die Komplexität und die Art der Regeln durch nichts begrenzt sind.
Verstehe ich das richtig, dass es sich um dieselbe Tabelle mit Prädiktoren handelt, aber die Ungleichheiten nicht nur durch die Werte der Prädiktoren, sondern auch durch die Ungleichheiten der Prädiktoren selbst untereinander konstruiert werden?
2) Ich habe so etwas wie "One-Shot-Learning" erfunden und implementiert, so wie ich es sehe. Jetzt muss ich nicht mehr die gesamte Historie berechnen, um etwas zu lernen, das ist kein cooles Know-How, sondern eher eine Verzweiflungstat, denn Lernen auf der gesamten Historie ist nicht möglich, zumindest noch nicht.
D.h. man nimmt ein Beispiel, generiert viele Varianten von Blättern (Mustern), die aus Ungleichungen bestehen und testet sie dann an einer größeren Stichprobe, die, die akzeptable Ergebnisse zeigen - lässt man sie, oder?
Was ist das Schöne an dem Algorithmus?
1) Er geht tief in das Muster hinein, wenn ich das sagen darf.
2) Er ist nicht an Indizes gebunden und arbeitet nicht mit tabellarischen Daten, so dass er resistent gegen Nicht-Stationarität sowie gegen assoziative Regeln ist.
Und hier verstehe ich nicht, wenn die Daten nicht in Tabellen vorliegen, womit füttern Sie sie dann?
1. Alles Mögliche, die Grenze der Fantasie
1. Sie können spezifischer sein - was könnte zum Beispiel noch sein.
2. Ist es klar, und wie schnell werden diese Regeln generiert? Vielleicht ist es sinnvoll, sie in MQL5 hochzuladen und sie durch die Historie laufen zu lassen - das kann durch Agenten schneller sein. Ich habe bereits etwas Ähnliches gemacht, worüber ich vor langer Zeit geschrieben habe, aber ich habe Blätter von genetischen Bäumen genommen.
3. ich verstehe die Antwort nicht - was Sie der Eingabe zuführen - das ist die Frage.
An dieser Erklärung ist etwas Wahres dran, denn es gibt KEINE Definition des Begriffs "GRAIL im Handel", so dass wir ALLE mit dieser Definition einverstanden sein können.....
Und wenn es keine Definition gibt, dann beginnt der "Schwan, der Flusskrebs und der Hecht"....