Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1977

 

Schade, eine Erhöhung der TF verschlechtert das Ergebnis, schlaksig ist besser.

Zusätzliche MA und Ausdünnung. Ohne MA wirkt die Ausdünnung wie eine Veränderung der TF und macht die Verteilung normal. RMS = Wurzel der Ausdünnungsstufe. Wenn MA 2-mal größer ist als die Ausdünnung, dann haben wir ein koscheres Downsampling, die Vorhersage funktioniert mit hoher Genauigkeit, aber wir brauchen einen Tester, um die korrekte erwartete Auszahlung zu berechnen. Der Zickzackkurs ist fertig, aber ich weiß nicht, welche Form er annehmen soll: Arrays von Indizes mit Minima und Maxima, oder ein Array von Indizes, oder ein Preis-Array auf einmal.

Ich kann jeden anderen Filter anstelle des MA nehmen, aber ich muss nur die Impulscharakteristik kennen. Im Code wird MA als [1/per]*per ausgeführt, was für per=4 zu [0,25, 0,25, 0,25, 0,25] expandiert.

 
Rorschach:

Wald: 55,89% richtige Antworten, 2,36 Erwartung

Forstliche kumulative Inkremente: 55,89% richtige Antworten, 2,36 Erwartung, identische Ergebnisse

Es gibt jedoch einen Unterschied, die Abstufungen sind besser.

Probleme mit Zickzack, es ist nicht klar, wie die minimale Änderung zu begrenzen, immer Micro-Switching.


 

Eher Unsinn, aber ich werde fragen.


Kann NS solche Serien vorhersagen?


Wie hoch ist die Wahrscheinlichkeit, dass das nächste Zeichen auftaucht, und gibt es eine Abhängigkeit der Serie A von der Serie B?

 
Evgeniy Chumakov:

Eher Unsinn, aber ich werde fragen.


Kann NS solche Serien vorhersagen?


Wie hoch ist die Wahrscheinlichkeit, dass die nächste Figur auftaucht, und gibt es einen Zusammenhang zwischen Serie A und Serie B?

Dies ist ihre unmittelbare Aufgabe.

 

Nach dem Wechsel zu TensorFlow 2.3 ist ein Fehler aufgetreten

"WARNING:tensorflow:11 der letzten 11 Aufrufe zum Auslösen von tf.function retracing. Die Verfolgung ist teuer, und die übermäßige Anzahl von Verfolgungen könnte auf die wiederholte Erstellung von @tf.function in einer Schleife zurückzuführen sein " .

D.h. irgendeine tf.function schwört, dass sie sich in einer Schleife befindet. Ich habe keine tf.function, aber in der Schleife fragt sie Modelle ab prediction=model.predict(data).
Die tf.function wird hier beschrieben:
Es handelt sich offensichtlich um ein unbekanntes Gebilde, weiß jemand, was es ist?

UPD
Wie auch immer, das ist eine coole Sache, ich kann nicht darauf verzichten, ich muss es mir ansehen. Es löst die Kompatibilitätsprobleme von TensorFlow mit Python.

 

Ich glaube, ich bin mit dem Agentenhändler fertig. Ich habe die Demo für Alpha-Tests überwacht. Die Logik ist nicht trivial, daher kann es zu Fehlern kommen. Testen wir es.

Jetzt bin ich daran interessiert, LSTM in verschiedenen Varianten und vielleicht Transformatoren auszuprobieren (aber es könnte schwierig sein, das herauszufinden).
 
Maxim Dmitrievsky:

Ich glaube, ich bin mit dem Händler fertig. Ich habe die Demo für Alpha-Tests überwacht. Die Logik ist nicht trivial, daher kann es zu Fehlern kommen. Testen wir es.

Jetzt bin ich daran interessiert, LSTM in verschiedenen Varianten und vielleicht Transformatoren auszuprobieren (aber es kann einem das Gehirn brechen, wenn man versucht, es herauszufinden)

Die Logik ist komplexer. Einerseits ist das gut. Andererseits: Wanzen in unbekannten Gebieten. Was ist ein Transformator?

 
Valeriy Yastremskiy:

Die Logik ist etwas verzweigter. Einerseits ist dies eine gute Sache. Andererseits gibt es Bugs in unbekannten Bereichen. Was ist ein Transformator?

Ein neuer Netzwerktyp für die Arbeit mit zeitlichen Abläufen, der besser sein soll als lstm. Bei der Texterkennung, der maschinellen Übersetzung usw. werden sie verwendet, um den Kontext von Sätzen hervorzuheben. Das heißt, wenn ein Wort durch einen bestimmten Kontext mit anderen (früheren) Wörtern verbunden ist.

Transformatoren der Selbstaufmerksamkeit. Mechanismus - die Analogie zur menschlichen Aufmerksamkeit.

 
Maxim Dmitrievsky:

eine neue Art von Zeitsequenznetz, das besser sein soll als lstm. Bei der Texterkennung, der maschinellen Übersetzung usw. werden sie verwendet, um den Kontext von Sätzen hervorzuheben. Das heißt, wenn ein Wort durch einen bestimmten Kontext mit anderen (früheren) Wörtern verbunden ist.

Transformatoren der Selbstaufmerksamkeit. Mechanismus - die Analogie zur menschlichen Aufmerksamkeit.

Solche erheblichen Komplikationen. Erstens ist das Gedächtnis lang und kurz, und dann gibt es noch den Anschein von Aufmerksamkeit im Modell. Mein Gehirn kann das nicht alles auf einmal verarbeiten.) Aber es sollte besser funktionieren.

 
Valeriy Yastremskiy:

Nun, solche erheblichen Komplikationen. Erstens ist das Gedächtnis lang und kurz, und dann gibt es noch den Anschein von Aufmerksamkeit in dem Modell. Das Gehirn ist dem definitiv nicht gewachsen))). Aber es sollte besser funktionieren.

Es funktioniert zwar besser, aber man weiß nie, wohin die Reise geht.

Im Allgemeinen sind herkömmliche Backpropagation-Netze wie mlp nicht für Zeitreihen geeignet, ganz und gar nicht. Als Minimum benötigen Sie RNN