Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 514
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
https://www.searchengines.ru/yandeks-vylozhil-v-dostup-biblioteku.html
Das R-Paket ist da, großartig.
Einrichtung -https://tech.yandex.com/catboost/doc/dg/concepts/r-installation-docpage/
1) Visual C++ 2015 Build Tools vorinstallieren -http://landinghub.visualstudio.com/visual-cpp-build-tools
Warum R, ich mag es nicht... Kommandozeile oder dll :)
Ich habe ein neuronales Netzwerk Regression Predictor, zeigt es ein Histogramm der aktuellen Preis-Vorhersage-Modell für n Bars voraus (15 in diesem Fall), Züge für 5000 Bars und retrains alle 500 Bars. Es sieht auf den ersten Blick gut aus, aber natürlich geht es nicht so schnell, wie ich es gerne hätte, denn ich möchte eigentlich mehrere von ihnen ausbilden :)
Wenn man sich also die Minuten ansieht, ist die Abweichung ziemlich gering, natürlich kann sie bei den extremen Emissionen hoch sein, aber im Durchschnitt liegt sie im Bereich von 100 Punkten (5-stellig).
Die leckersten habe ich mit Pfeilen eingekreist
Es funktioniert nicht so schnell, wie ich es gerne hätte,
Auf ALGLIB?
Auf ALGLIB?
ja
natürlich können Sie mit externen NS oder Gerüst, zum Beispiel CatBoost auf gpu verdreht bekommen, aber ich bin zu faul und haben keine Zeit zu
es kommt auf die Geschwindigkeit an, je höher die Geschwindigkeit, desto schwieriger ist es, sie im Prüfgerät zu testen
ALGLIB ist eine schreckliche Lernbremse.
240-50-1 netto auf ALGLIB serviert - 2 Tage gewartet, nicht gewartet und abgeschaltet.
Ich habe das 70-5-1 Netzwerk in einer halben Stunde trainiert. Und nnet aus R wurde in weniger als einer Minute mit denselben Daten trainiert. Jetzt versuche ich, es mit R herauszufinden.
ALGLIB ist eine schreckliche Lernbremse.
240-50-1 netto auf ALGLIB serviert - 2 Tage gewartet, nicht gewartet und abgeschaltet.
Ich habe das 70-5-1 Netzwerk in einer halben Stunde trainiert. Und nnet aus R wurde in weniger als einer Minute mit denselben Daten trainiert. Jetzt sitze ich also hier und beschäftige mich mit R.
RF mehr oder weniger, 50 Eingaben von 5000, 100 Bäume, 25 Sekunden im Durchschnitt (auf Laptop). Aber für die Optimierung ist es auch sehr lang. NS ist wirklich langsam, aber es ist ein reguläres MLP, man sollte nichts anderes von ihm erwarten.
Ich brauche es, um alles in höchstens einer Sekunde zu lernen, wo bekomme ich es? )
Wieder einmal bin ich davon überzeugt, dass ein Gerüst nicht extrapolieren kann, egal wie oft hier behauptet wird, dass es das nicht kann:
über der roten Linie 150 Trainingspreise (Ein- und Ausstiege). Danach begann der Markt zu fallen, neue Preise tauchten auf, die nicht in der Trainingsstichprobe enthalten waren (wurden nicht in die Ausgabe eingespeist). Der Wald begann, den niedrigsten Preis, den er zum Zeitpunkt des Trainings kannte, nämlich 1,17320, der der horizontalen Linie entspricht, als Prognose zu erstellen. Dadurch wurde auch das Histogramm der Residuen verzerrt.
Wälder wissen NICHT, wie man EXTRAPLORE macht. Alle klugen Köpfe bleiben im zweiten Jahr zurück, um die Mathematik neu zu lernen.
- genau wie Entscheidungsbäume ist der Algorithmus völlig unfähig zur Extrapolation
http://alglib.sources.ru/dataanalysis/decisionforest.phpPreise ohne jegliche Umrechnung werden nicht in das Modell eingespeist.
Das Gerüst für die Extrapolation nimmt den nächstliegenden bekannten Wert. Das Neuron oder das Lineal in der Extrapolation wird etwas nach den internen Formeln berechnen. Aber in Wirklichkeit werden alle diese Modelle in dieser Situation verschmelzen, so dass es keinen Unterschied gibt.