Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 1547
![MQL5 - Sprache von Handelsstrategien, eingebaut ins Kundenterminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Ich weiß es nicht, es ist immer anders.
Hmm, vielleicht finden Sie einen Weg, um das herauszufinden?
Übrigens kann ich mit Ihren Daten ein Modell in R erstellen - falls Sie an einem Vergleich der Effizienz der Methoden interessiert sind.Können wir einen Weg finden, das herauszufinden?
Übrigens kann ich in R ein Modell aus Ihren Daten erstellen, wenn Sie an einem Vergleich der Effizienz der Methoden interessiert sind.Es gibt nichts Besseres zu tun, das Modell ist perfekt und bestätigt den Zufallscharakter von Kotir
weitere Verbesserungen können nur durch andere Methoden der Arbeit mit Zufallsprozessen erzielt werden, wie ich oben schrieb
Das Modell ist perfekt und bestätigt den Zufallscharakter von Kotir.
Weitere Verbesserungen können nur durch andere Methoden der Arbeit mit Zufallsprozessen erzielt werden, wie ich oben schrieb
Zufallslösungen für Zufallsprozesse scheinen mir in ihrer Ideologie eine zu riskante Methode zu sein...
Ich kehre zu etwas zurück, was ich schon lange tun wollte - MO + stoh
http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/
Das Thema ist interessant - insbesondere das Merton-Sprungmodell oder eine Variante davon. Es scheint, dass es im Gegensatz zur konventionellen Diffusion nicht (durch Zeitstichproben) auf Autoregression reduziert wird, oder es wird auf eine nicht-triviale Weise durchgeführt. Vielleicht werden Berechnungen in einem gleitenden Fenster für ein Portfolio ziemlich unerschwinglich sein.
Der Zufallsforst passt sich der Geschichte an, ohne dass eine Anpassung möglich ist. Ich habe vor einem Jahr alle Möglichkeiten von SL ausgeschöpft.
Die lineare Regression hat eine viel bessere Chance, einen Gewinn zu erzielen. Bei der Ausbildung müssen Sie die relativen Preise und nicht die realen Preise berücksichtigen.
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Welche Netzkonfiguration gefällt Ihnen?
Der Konstrukteur ist cool!
Zum Beispiel verwenden viele Menschen gedankenlos "Aktivierungsfunktionen", auch wenn sie nicht benötigt werden. "Aktivierungsfunktionen" = Umwandlung von Daten in einen bestimmten Wertebereich mit teilweisem oder vollständigem Informationsverlust - wie eine Hash-Funktion für eine Datei.
Wenn die Eingaben bereits normalisierte Daten sind, sind die "Aktivierungsfunktionen" zwischen den Schichten verdammt noch mal nicht notwendig. In Alglib können Sie die "Aktivierungsfunktion" nicht loswerden.
Ich habe ein komplettes Änderungskontrollsystem in Form von Jenkins und MLFlow zum Aufzählen von Varianten und Speichern von Ergebnissen.
Die Konfiguration sieht nun folgendermaßen aus:
Natürlich habe ich nicht sofort verstanden, wie man das Netzwerk auf der Grafikkarte auf Kosten der Datenlatenz trainieren kann. Jetzt ist mein Code optimiert und lernt 100 Mal schneller als die ursprüngliche Version, indem er die Menge der Daten-Uploads zur Grafikkarte reduziert.
Der Konstrukteur ist cool!
Zum Beispiel verwenden viele Menschen gedankenlos "Aktivierungsfunktionen", auch wenn sie nicht benötigt werden. "Aktivierungsfunktionen" = Umwandlung von Daten in einen bestimmten Wertebereich mit teilweisem oder vollständigem Informationsverlust - wie eine Hash-Funktion für eine Datei.
Wenn die Eingaben bereits normalisierte Daten sind, sind die "Aktivierungsfunktionen" zwischen den Schichten verdammt noch mal nicht notwendig. Sie können die "Aktivierungsfunktion" in Alglib nicht loswerden.
Ich habe ein komplettes Änderungskontrollsystem in Form von Jenkins und MLFlow zum Aufzählen von Varianten und Speichern von Ergebnissen.
Die Konfiguration sieht nun folgendermaßen aus:
Natürlich habe ich nicht sofort verstanden, wie man das Netzwerk auf der Grafikkarte auf Kosten der Datenlatenz trainieren kann. Jetzt ist mein Code optimiert und lernt 100 Mal schneller als die ursprüngliche Version, indem er die Menge der Daten-Uploads zur Grafikkarte reduziert.
Was ist mit der rekursiven Ebene? lstm oder gru
Der Konstrukteur ist cool!
Zum Beispiel verwenden viele Menschen gedankenlos "Aktivierungsfunktionen", auch wenn sie nicht benötigt werden. "Aktivierungsfunktionen" = Umwandlung von Daten in einen bestimmten Wertebereich mit teilweisem oder vollständigem Informationsverlust - wie eine Hash-Funktion für eine Datei.
Wenn die Eingaben bereits normalisierte Daten sind, sind die "Aktivierungsfunktionen" zwischen den Schichten verdammt noch mal nicht notwendig. Sie können die "Aktivierungsfunktion" in Alglib nicht loswerden.
Ich habe ein komplettes Änderungskontrollsystem in Form von Jenkins und MLFlow zum Aufzählen von Varianten und Speichern von Ergebnissen.
Die Konfiguration sieht nun folgendermaßen aus:
Natürlich habe ich nicht sofort verstanden, wie man das Netzwerk auf der Grafikkarte auf Kosten der Datenlatenz trainieren kann. Jetzt ist mein Code optimiert und lernt 100 Mal schneller als die ursprüngliche Version, indem er die Menge der Daten-Uploads zur Grafikkarte reduziert.
Sagt Ihr NS erfolgreich die Zukunft voraus? Wenn ja, wäre es interessant, das Signal oder zumindest die Testergebnisse mit Forward zu sehen.
Was ist mit der Wiederholungsebene? lstm oder gru
Ich könnte noch etwas hinzufügen, aber im Moment möchte ich meine Variante vollständig testen. Ich muss nur 1 Zeile in den Code einfügen, um die Netzstruktur zu ändern. Wir übersetzen keinen Text, sondern erkennen ein historisches Ereignis.
https://pytorch.org/docs/stable/nn.html - wählen Sie eine beliebige Ebene und fügen Sie sie in einer Zeile ein.