Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1588

 
Aleksey Mavrin:

Gab es Versuche, statistische Methoden auf die Erstellung von Charts, die Candlestick-Analyse und andere übergeordnete Themen anzuwenden?

Ich verwende keine Retouren.

Selbst wenn sie als Primärdaten verwendet werden (grafische Darstellung), sind zusätzliche Prädiktoren erforderlich, die die Informationen komprimieren, um Proportionen und Vektoren zu erstellen.

 
sibirqk:

Meiner Meinung nach gibt es periodische Schwankungen in der Temperatur des Planeten, die auf natürliche Ursachen zurückzuführen sind. In den letzten hundert Jahren hat eine natürliche Erwärmung eingesetzt, die von anthropogenen Faktoren überlagert wurde.

Nehmen wir es kurz und bündig auseinander:

1. Der Treibhauseffekt ist nur einer von vielen Faktoren, die die Durchschnittstemperatur auf der Erde beeinflussen.

2. Um den anthropogenen Einfluss zu berücksichtigen, ist der prozentuale Anteil des anthropogenen CO2 in der Atmosphäre wichtig. Derzeit liegt sie bei einem Prozent, also recht gering. Viel mehr ist auf Waldbrände und Grasbrand zurückzuführen. Außerdem wird durch die Abholzung von Wäldern CO2 gebunden und reduziert.

3. das Gleichgewicht zwischen dem CO2-Eintritt in die Atmosphäre und seiner Bindung ist fast wie ein Gleichgewicht zwischen Angebot und Nachfrage auf dem Devisenmarkt, viele verschiedene Kanäle mit unterschiedlichen Investitionszeiten Verfügung. Das ist nicht gerade einfach zu simulieren. Aber es gibt experimentelle Beobachtungen.

Ende des 20. Jahrhunderts kamen Geräte wie die AMS-Beschleunigungsmassenspektrometer auf, die vor allem für die Bedürfnisse von Archäologen bestimmt waren. Ihr Hauptmerkmal ist, dass die Proben für die Bestimmung des Isotopenverhältnisses sehr klein sein können - Milligramm. Sie wurden schnell für andere technologische, medizinische und vor allem klimatische Forschungszwecke angepasst. Diese Geräte messen das C12/C14-Verhältnis sehr genau. In der natürlichen Genese wird es durch den kosmischen Hintergrund bestimmt, und das Verhältnis ist ziemlich stabil. Als jedoch die Ära der Atomtests begann, stieg die C14-Konzentration dramatisch an, wurde über die ganze Welt verstreut und von den Bäumen absorbiert. Die Standorte und Daten der Tests sind bekannt, die Jahresringe lassen sich leicht zählen, und man kann genau feststellen, wie sich die C14-Konzentration am Standort des Baumes verändert hat. Durch solche Messungen auf der ganzen Welt war es möglich zu verfolgen, wie schnell CO2 in der Atmosphäre wandert - es stellte sich heraus, dass sich die Konzentration innerhalb eines halben bis ganzen Jahres überall auf der Welt sehr schnell einpendelt. Und was noch wichtiger ist: Es dauerte weniger als zehn Jahre, bis die Konzentration auf den Hintergrundwert sank, d. h. das gesamte atmosphärische CO2 wird ständig aktualisiert. Das bedeutet, dass die derzeitige Konzentration ein Gleichgewicht zwischen Emissionen und Ablagerungen ist, bei dem das anthropogene CO2 aus der Verbrennung von Kohle, Öl und Gas nicht so stark ins Gewicht fällt, wie es in den Medien dargestellt wird.

Das heißt, meiner Meinung nach:

a) Die vom Menschen verursachte CO2-Menge erhöht die natürliche Konzentration nicht signifikant, wie sie propagiert wird.

b) CO2 ist nicht die einzige Ursache für den Treibhauseffekt.

c) Der Treibhauseffekt ist bei weitem nicht die einzige Ursache für Temperaturveränderungen auf der Erde.


Soweit ich weiß, wirkt sich Wasserdampf deutlich stärker auf den Treibhauseffekt aus als CO2, und der menschliche Einfluss auf das Klima wird auf jeden Fall übertrieben. Aber das ist nicht das, was ich meinte, als ich über den Inhalt des Artikels sprach:

1) Ein formal deterministisches, aber recht komplexes System kann nicht ohne die Methoden einer MatStat untersucht werden.

2) Die Antworten, die eine Statistik gibt, sind immer mit einer gewissen Unsicherheit behaftet. Es ist unmöglich, sie ganz zu vermeiden, denn sie liegt in der Natur des Gegenstandes dieser Wissenschaft.

3) Es besteht immer die Versuchung, diese Unsicherheit zu nutzen, um die "richtige" Antwort zu erhalten.

4) Um eine Anpassung der Antwort an das gewünschte Ergebnis zu vermeiden, sollte stets die statistische Signifikanz der Schlussfolgerungen bewertet werden.

 
Aleksey Nikolayev:

In unserem Fall können wir nur sinnvoll mit Nicht-Stationarität arbeiten, die sich auf die eine oder andere Weise auf Stationarität reduziert. Teilweise Stationarität, autoregressive Modelle, usw.

Der Hauptgrund ist, dass immer nur eine Realisierung des Prozesses bekannt ist. Nehmen wir zum Beispiel die Spracherkennung: Wir können jedes Wort so oft sagen, wie wir wollen. Die Notierungen für ein konkretes Instrument in einem konkreten Zeitintervall liegen in einer einzigen Variante vor. Übrigens ist das wahrscheinlich der Grund, warum viele Menschen hier den Zufallsprozess nicht von seinen Realisierungen unterscheiden.

Sehr richtig, deshalb wird MO niemals mit solchen Daten arbeiten, sie müssen in eine Serie umgewandelt werden, die sich wiederholen wird, und das ist ziemlich realistisch.

Warum wird das nicht praktisch diskutiert? denn das ist die Frage Nr. 1.
 
mytarmailS:
Warum wird das kaum diskutiert? ... Denn das ist die erste Frage.
Rauchen Sie meinen letzten Link.
 
Aleksey Mavrin:

Gab es Versuche, statistische Methoden auf die Erstellung von Charts, die Candlestick-Analyse und andere übergeordnete Themen anzuwenden?

Sicher, zum Beispielhttps://journals.plos.org/plosone/article?id=10.1371/journal.pone.0212320

Aber Sie wissen, was das Ergebnis sein wird, wenn Sie sie wirklich benutzen...

Forecasting stock prices with a feature fusion LSTM-CNN model using different representations of the same data
Forecasting stock prices with a feature fusion LSTM-CNN model using different representations of the same data
  • journals.plos.org
Forecasting stock prices plays an important role in setting a trading strategy or determining the appropriate timing for buying or selling a stock. We propose a model, called the feature fusion long short-term memory-convolutional neural network (LSTM-CNN) model, that combines features learned from different representations of the same data...
 

Ich habe mich mit mathematischer Modellierung (MM) befasst und auch Optimierungsprobleme mit der Methode der linearen Simplex-Programmierung programmiert.

Und als sich das maschinelle Lernen (ML) zu verbreiten begann, dachte ich, es sei das Gleiche wie MM. Aber es ist nicht ganz dasselbe.


Für Forex müssen wir zunächst ein Handelsstrategiemodell (TS) erstellen , das viele Faktoren berücksichtigt.

Der Roboter selbst ist nicht in der Lage, das TS-Modell von Anfang an zu erstellen. Das liegt daran, dass ein Programm nicht in der Lage ist, von sich aus die Idee der Begrenzung, d.h. den Faktor, der das Modell oder TS beeinflusst, zu erzeugen.

Der Roboter ist nur in der Lage, die Grenzen dieser Beschränkung zu finden.

Wenn Sie ein schlechtes Modell mit schlechten Randbedingungen erstellt haben, wird Ihnen keine Optimierung das gewünschte Ergebnis liefern.

Man muss wissen, welche Faktoren den TS beeinflussen, und hier kommt man ohne den Faktor Mensch nicht aus.


Lassen Sie mich Ihnen ein Beispiel für nur einen dieser Faktoren geben, die ich in meinem Handelsroboter verwende. Ich werde Ihnen ein kleines "Geheimnis" verraten :)

Dieser Faktor ist vielen bekannt- die Geschwindigkeit der Preisänderung. In meinen Berechnungen bestimme ich aber nicht nur die Geschwindigkeit, sondern auch die Beschleunigung und Verzögerung der Geschwindigkeit durch Trägheit.

Die Geschwindigkeit wird in 1-Sekunden-Intervallen ermittelt. Dabei wird nicht nur die Häufigkeit der eingehenden Ticks berücksichtigt, sondern auch die Anzahl der Punkte (Länge) zwischen den Ticks.

Wofür oder wann dieser Faktor verwendet wird.

Es wird bei der Eröffnung einer Bestellung verwendet. Durch die Einführung der Geschwindigkeitsbegrenzung verhindern wir die Ordereröffnung während der starken Kurssprünge.

Und es verhindert, dass ein Auftrag geöffnet wird, bis die Geschwindigkeit auf einen bestimmten Wert gesunken ist, und auch dann, wenn eine bestimmte Zeitspanne nicht verstrichen ist.

Ich verwende dies auch, um den Winkel des Trends zu bestimmen. Je höher die Geschwindigkeit, desto größer der Trendwinkel.

 

Kollegen an alle hallo,

Es tut mir leid für eine so dumme Frage, aber ist OnBookEvent Ereignis arbeiten in MT5 Tester? Ich versuche, es zu testen, aber es geht nicht in Schleife aus irgendeinem Grund und fühlt sich wie es ignoriert wird. Aber theoretisch ändern sich die Notierungen bei der Marktüberprüfung. HMM...

 
Aleksey Nikolayev:

In unserem Fall können wir nur sinnvoll mit Nicht-Stationarität arbeiten, die sich auf die eine oder andere Weise auf Stationarität reduziert. Teilweise Stationarität, autoregressive Modelle, usw.

Der Hauptgrund ist, dass immer nur eine Realisierung des Prozesses bekannt ist. Wenn wir zum Beispiel die Spracherkennung nehmen, können wir jedes Wort so oft sagen, wie wir wollen. Die Zitate für ein bestimmtes Instrument in einem bestimmten Zeitintervall sind in einer einzigen Realisierung. Das ist übrigens auch der Grund, warum viele Menschen hier einen Zufallsprozess nicht von seinen Realisierungen unterscheiden.

Es ist amüsant zu sehen, wie sich die Leute über die gute alte statistische (Nicht-)Stationarität lustig machen, die alles andere als eine relative zeitliche Persistenz der Verteilung impliziert. Wahrscheinlich hat irgendein "Guru" der Ökonometrie in der Vergangenheit einmal einen solchen Einwurf gemacht, wahrscheinlich über etwas anderes und in einem engen theoretischen Kontext, und das Thema der Nicht-Stationarität als Haupthindernis für die Schaffung des "Grals" wurde zum viralen Thema. Es liegt auf der Hand, dass ein statistisch nicht-stationärer kumulierter Preis in seiner reinen Form viele Menschen nicht interessiert, und selbst wenn die Renditen stationär wären (ohne Änderung der Verteilung), gäbe es ohnehin nicht viel zu handeln (Optionen würden nur als Instrument verschwinden).

Wahrscheinlich lohnt es sich, den Begriff "Nicht-Stationarität im Devisenhandel" zu definieren und/oder zu spezifizieren, damit Personen, die mit der klassischen Statistik vertraut sind, verstehen können, worüber wir sprechen.

Auf den Märkten herrscht naturgemäß keine statistische, sondern eine "Spiel"-Nicht-Stationarität mit "Störungen" (fundamentalen Faktoren), d.h. die "Masse" sagt den Preis zwischen den "Störungen" voraus, jeder Teilnehmer versucht, den Rest der Masse im Durchschnitt vorherzusagen, und "fundamental" (Politik, Wirtschaft, Ragtime-Verschiebungen...) bricht dann alles zusammen.

Das ganze Problem ist, wie man den "Marktwechsel" so schnell wie möglich erkennt und gleichzeitig das System auf den Daten "vom aktuellen Markt" "trainiert", denn das Lernen von vergangenen Märkten wird das System nur verwirren, die alten Märkte existieren nicht mehr, es ist nicht nur nutzlos und schädlich, sondern auf sehr kleinen Datenfenstern zu trainieren ist auch nicht cool, es macht nur für Soft-User Sinn, und wie gewöhnliche Leute mit 15M und Uhr arbeiten - ein Rätsel...

 
Andrej:

Es ist lustig zu sehen, wie sich die Leute über die gute alte statistische (Un-)Stationarität lustig machen, indem sie überhaupt etwas anderes als eine relative Persistenz der Verteilung im Zeitverlauf unterstellen.

......

Das ganze Problem ist, wie man "Marktveränderungen" so schnell wie möglich erkennt und gleichzeitig das System mit Daten "vom aktuellen Markt" "trainiert", denn das Lernen von vergangenen Märkten wird das System nur verwirren, die alten Märkte existieren nicht mehr, es ist nicht nur sinnlos und schädlich, sondern auf sehr kleinen Datenfenstern zu trainieren ist nicht cool, es macht nur für Soft-User Sinn, und wie sollen einfache Leute mit 15M und Uhr arbeiten - ein Rätsel...

Nicht "relative Persistenz der Verteilung", sondern die Unabhängigkeit von MO, Varianz und Verteilungsfunktion von der Zeit.

Und wie erkennt man "Marktverschiebungen"?

Nun, Sie haben eine "Marktveränderung" festgestellt - Sie brauchen eine Stichprobe von ausreichender Länge, um das System auf die neuen Daten zu trainieren. Und wenn vorher oder wenn die Stichprobe lang genug ist, kommt es wieder zu einer "Marktveränderung" - was ist zu tun?

 
Dmitri:

Nicht "relative Persistenz der Verteilung", sondern Unabhängigkeit von MO, Varianz und Verteilungsfunktion über die Zeit.

Nein, es ist die Abhängigkeit, und es ist eine ständige Abhängigkeit).

Dmitriy:

Und wie erkennt man "Marktverschiebungen"?

Nun, Sie haben eine "Marktveränderung" festgestellt - um das System auf neue Daten zu trainieren, benötigen Sie eine Stichprobe von ausreichender Länge. Und wenn vorher oder wenn die Stichprobe lang genug ist, kommt es wieder zu einem "Marktwechsel" - was tun Sie dann?

Sie können versuchen, mit MO

Dimitri:

Nun, Sie haben eine "Marktveränderung" festgestellt - Sie brauchen eine Stichprobe von ausreichender Länge, um das System auf die neuen Daten zu trainieren. Und wenn, bevor oder wenn die Stichprobe eine ausreichende Länge erreicht, der "Markt sich wieder ändert" - was ist dann zu tun?

Das ist die richtige Frage, Sie brauchen nichts zu tun, warten Sie ab, bis es eine leicht statistisch signifikante Stichprobe gibt, jede Aktion in dieser Situation wird auf gut Glück sein, wenn es keinen Insider gibt.