Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1547

 
Maxim Dmitrievsky:

Ich weiß es nicht, es ist immer anders.

Hmm, vielleicht finden Sie einen Weg, um das herauszufinden?

Übrigens kann ich mit Ihren Daten ein Modell in R erstellen - falls Sie an einem Vergleich der Effizienz der Methoden interessiert sind.
 
Aleksey Vyazmikin:

Können wir einen Weg finden, das herauszufinden?

Übrigens kann ich in R ein Modell aus Ihren Daten erstellen, wenn Sie an einem Vergleich der Effizienz der Methoden interessiert sind.

Es gibt nichts Besseres zu tun, das Modell ist perfekt und bestätigt den Zufallscharakter von Kotir

weitere Verbesserungen können nur durch andere Methoden der Arbeit mit Zufallsprozessen erzielt werden, wie ich oben schrieb

 
Maxim Dmitrievsky:

Das Modell ist perfekt und bestätigt den Zufallscharakter von Kotir.

Weitere Verbesserungen können nur durch andere Methoden der Arbeit mit Zufallsprozessen erzielt werden, wie ich oben schrieb

Zufallslösungen für Zufallsprozesse scheinen mir in ihrer Ideologie eine zu riskante Methode zu sein...

 
Maxim Dmitrievsky:

Ich kehre zu etwas zurück, was ich schon lange tun wollte - MO + stoh

http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/

Das Thema ist interessant - insbesondere das Merton-Sprungmodell oder eine Variante davon. Es scheint, dass es im Gegensatz zur konventionellen Diffusion nicht (durch Zeitstichproben) auf Autoregression reduziert wird, oder es wird auf eine nicht-triviale Weise durchgeführt. Vielleicht werden Berechnungen in einem gleitenden Fenster für ein Portfolio ziemlich unerschwinglich sein.

 

Der Zufallsforst passt sich der Geschichte an, ohne dass eine Anpassung möglich ist. Ich habe vor einem Jahr alle Möglichkeiten von SL ausgeschöpft.

Die lineare Regression hat eine viel bessere Chance, einen Gewinn zu erzielen. Bei der Ausbildung müssen Sie die relativen Preise und nicht die realen Preise berücksichtigen.

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

 
Roffild:

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

Welche Netzkonfiguration gefällt Ihnen?

 

Der Konstrukteur ist cool!

Zum Beispiel verwenden viele Menschen gedankenlos "Aktivierungsfunktionen", auch wenn sie nicht benötigt werden. "Aktivierungsfunktionen" = Umwandlung von Daten in einen bestimmten Wertebereich mit teilweisem oder vollständigem Informationsverlust - wie eine Hash-Funktion für eine Datei.

Wenn die Eingaben bereits normalisierte Daten sind, sind die "Aktivierungsfunktionen" zwischen den Schichten verdammt noch mal nicht notwendig. In Alglib können Sie die "Aktivierungsfunktion" nicht loswerden.

Ich habe ein komplettes Änderungskontrollsystem in Form von Jenkins und MLFlow zum Aufzählen von Varianten und Speichern von Ergebnissen.

Die Konfiguration sieht nun folgendermaßen aus:

Sequential(
  (input): Linear(in_features=2836, out_features=1000, bias=True)
  (hidden1): Linear(in_features=1000, out_features=100, bias=True)
  (hidden2): Linear(in_features=100, out_features=2, bias=True)
  (output_activ): Softmax()
)

Natürlich habe ich nicht sofort verstanden, wie man das Netzwerk auf der Grafikkarte auf Kosten der Datenlatenz trainieren kann. Jetzt ist mein Code optimiert und lernt 100 Mal schneller als die ursprüngliche Version, indem er die Menge der Daten-Uploads zur Grafikkarte reduziert.

 
Roffild:

Der Konstrukteur ist cool!

Zum Beispiel verwenden viele Menschen gedankenlos "Aktivierungsfunktionen", auch wenn sie nicht benötigt werden. "Aktivierungsfunktionen" = Umwandlung von Daten in einen bestimmten Wertebereich mit teilweisem oder vollständigem Informationsverlust - wie eine Hash-Funktion für eine Datei.

Wenn die Eingaben bereits normalisierte Daten sind, sind die "Aktivierungsfunktionen" zwischen den Schichten verdammt noch mal nicht notwendig. Sie können die "Aktivierungsfunktion" in Alglib nicht loswerden.

Ich habe ein komplettes Änderungskontrollsystem in Form von Jenkins und MLFlow zum Aufzählen von Varianten und Speichern von Ergebnissen.

Die Konfiguration sieht nun folgendermaßen aus:

Natürlich habe ich nicht sofort verstanden, wie man das Netzwerk auf der Grafikkarte auf Kosten der Datenlatenz trainieren kann. Jetzt ist mein Code optimiert und lernt 100 Mal schneller als die ursprüngliche Version, indem er die Menge der Daten-Uploads zur Grafikkarte reduziert.

Was ist mit der rekursiven Ebene? lstm oder gru

 
Roffild:

Der Konstrukteur ist cool!

Zum Beispiel verwenden viele Menschen gedankenlos "Aktivierungsfunktionen", auch wenn sie nicht benötigt werden. "Aktivierungsfunktionen" = Umwandlung von Daten in einen bestimmten Wertebereich mit teilweisem oder vollständigem Informationsverlust - wie eine Hash-Funktion für eine Datei.

Wenn die Eingaben bereits normalisierte Daten sind, sind die "Aktivierungsfunktionen" zwischen den Schichten verdammt noch mal nicht notwendig. Sie können die "Aktivierungsfunktion" in Alglib nicht loswerden.

Ich habe ein komplettes Änderungskontrollsystem in Form von Jenkins und MLFlow zum Aufzählen von Varianten und Speichern von Ergebnissen.

Die Konfiguration sieht nun folgendermaßen aus:

Natürlich habe ich nicht sofort verstanden, wie man das Netzwerk auf der Grafikkarte auf Kosten der Datenlatenz trainieren kann. Jetzt ist mein Code optimiert und lernt 100 Mal schneller als die ursprüngliche Version, indem er die Menge der Daten-Uploads zur Grafikkarte reduziert.

Geschwindigkeit ist cool, aber zweitrangig.
Sagt Ihr NS erfolgreich die Zukunft voraus? Wenn ja, wäre es interessant, das Signal oder zumindest die Testergebnisse mit Forward zu sehen.
 
Maxim Dmitrievsky:

Was ist mit der Wiederholungsebene? lstm oder gru

Ich könnte noch etwas hinzufügen, aber im Moment möchte ich meine Variante vollständig testen. Ich muss nur 1 Zeile in den Code einfügen, um die Netzstruktur zu ändern. Wir übersetzen keinen Text, sondern erkennen ein historisches Ereignis.

https://pytorch.org/docs/stable/nn.html - wählen Sie eine beliebige Ebene und fügen Sie sie in einer Zeile ein.

torch.nn¶
  • pytorch.org
class ¶ A kind of Tensor that is to be considered a module parameter. Parameters are subclasses, that have a very special property when used with s - when they’re assigned as Module attributes they are automatically added to the list of its parameters, and will appear e.g. in iterator. Assigning a Tensor doesn’t have such effect. This is...