Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 2052

 
Maxim Dmitrievsky:

Es ist klar, dass er kein Idiot ist. Der Test ist einfach, aber wahrscheinlich veraltet.

Wenn es so ist wie in Idiocracy, wird es sich auch als kompliziert erweisen))

 
Rorschach:

Wenn es so ist wie in Idiocracy, wird es auch schwierig sein))

Mir fallen viele Leute ein, die ich kenne, oder lokale Konkurrenten, die es nicht schaffen werden.

 
Aleksey Vyazmikin:

Wenn es eine Vorhersage von einem Balken oder mehr gibt, ist das nicht genug, um eine Entscheidung zu treffen, es ist nicht viel besser als ein MA. Man interessiert sich für die Abweichungen von diesem fiktiven MA für die Erträge.

so weit wie Sie gehen, so weit wie es geht.

Ich habe heute Morgen mit dem Tester an den rnn herumgespielt - er trainiert die Inkremente neu. Im Zug ist es gut, auf dem Testgerät ist es nicht so gut.

Ich weiß nicht, wozu man das braucht, wenn die Ergebnisse nicht besser sind als der Wald. Im Großen und Ganzen ist das eine coole Sache, aber es bringt trotzdem nichts.
 

Neural Network Porn... Ich werde demnächst Teil 2 mit Schlussfolgerungen über RNN (GRU) hochladen

ч.2. Normaler Test am Ende des Videos. Davor wollte ich auf keinen Fall richtig trainieren.


Und eine kleine Zusammenfassung, wie ungefähr das Gleiche mit Catbust funktioniert, wobei das Ergebnis besser ist:


 
Maxim Dmitrievsky:

Neural Network Porn... Ich werde demnächst Teil 2 mit Schlussfolgerungen über RNN (GRU) hochladen

ч.2. Normaler Test am Ende des Videos. Davor wollte ich auf keinen Fall richtig trainieren.


Und eine kleine Zusammenfassung, wie etwa das Gleiche mit Catbust funktioniert, wobei das Ergebnis besser ist:


Sie verwenden Numba nicht zur Beschleunigung?

 
Rorschach:

Benutzen Sie nicht Numba, um die Dinge zu beschleunigen?

Die Schleifen selbst sind auch ohne diese Funktion schnell, so dass ich sie bisher nicht benötige.

Wenn möglich, ist die Vektorisierung überall, alles ist dort schnell

Z.I. offensichtlicher Fehler - man kann nicht mit Logloss oder Cross-Entropie unterrichten, man muss zumindest eine Metrik anbringen. Das ist mir erst jetzt bewusst geworden. Aus diesem Grund sind die Ergebnisse wahrscheinlich nicht sehr gut.

Kam die Einladung von den Odds? Vielleicht gibt es noch andere Möglichkeiten, ich werde nachfragen müssen.
 
Maxim Dmitrievsky:

die Zyklen selbst funktionieren schnell ohne sie, bisher kein Bedarf

wenn möglich, Vektorisierung überall, da ist alles schnell

Z.I. offensichtlicher Fehler - man kann nicht mit Logloss oder Cross-Entropie unterrichten, man muss zumindest eine Genauigkeitsmetrik einschrauben. Das ist mir erst jetzt bewusst geworden. Aus diesem Grund sind die Ergebnisse wahrscheinlich nicht sehr gut.

haben sie die einladung von ods erhalten? vielleicht gibt es noch andere möglichkeiten, ich werde nachfragen müssen

Manchmal brauchen Numpy-Arrays länger zum Berechnen als Python-Listen. Ich habe auch festgestellt, dass die Einbettung von Code in eine Funktion zu einer Beschleunigung führt.

Da ich noch nicht angekommen bin, weiß ich nicht, wann mein nächster Besuch in NS sein wird.

 
Rorschach:

Unter stelle ich manchmal fest, dass Numpy-Arrays länger für die Auswertung brauchen als Python-Listen. Ich habe auch festgestellt, dass die Einbettung des Codes in eine Funktion zu einer Beschleunigung führt.

Ich bin noch nicht dazu gekommen, weil ich es nicht eilig habe und nicht weiß, wann der nächste Lauf in NS stattfinden wird.

Das ist seltsam. Wahrscheinlich wird Element für Element gezählt und nicht Vektor für Vektor.

nampai wie auf den Pluspunkten fliegen sollte, mit einem kleinen Overhead
 
Maxim Dmitrievsky:

Das ist seltsam. Wahrscheinlich wird Element für Element gezählt und nicht Vektor für Vektor.

Nampai wie die Pluspunkte sollten fliegen, mit ein wenig Overkill.

Ja, wenn Sie es in einer Schleife tun müssen.

Ich habe etwa 500 Mal für numba gezählt, aber das ist nicht genau. Sie müssen diesen Code in eine Funktion einfügen und dort @njit einfügen. @vectorize arbeitet mit @njit-Geschwindigkeit, es macht also keinen Sinn, daran herumzufummeln, nur wenn man auf die GPU zählt. Aber gpu ist noch problematischer, Arrays können nicht innerhalb der Funktion deklariert werden und der Code sollte ohne Schleifen entworfen werden, sonst wird er sehr lang
 

Und so wurde die Catbust mit denselben Daten trainiert (in 5 Sekunden)

52: Lernen: 0.7964708 Test: 0.7848837 Best: 0.7860866 (27) insgesamt: 604ms verbleibend: 5.09s

Quelldatensatz:

Trainiertes Modell (die zweite Hälfte des Handels ist die Testprobe):


Natürlich nicht immer, das hängt von der Stichprobe ab (und die ist zufällig, d. h. es ist eine Überstichprobe erforderlich). Manchmal auch so:

34: Lernen: 0.5985972 Test: 0.5915832 Best: 0.5927856 (9) insgesamt: 437ms verbleibend: 5.81s