Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 514

 
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
Яндекс выложил в открытый доступ новую библиотеку машинного обучения
  • 2017.07.18
  • Оксана Мамчуева
  • www.searchengines.ru
Яндекс разработал новый метод машинного обучения CatBoost. Он позволяет эффективно обучать модели на разнородных данных — таких как местонахождение пользователя, история операций и тип устройства. Библиотека машинного обучения CatBoost выложена в открытый доступ, ее могут использовать все желающие. Для работы с CatBoost достаточно установить...
 

Das R-Paket ist da, großartig.


2)
install.packages('devtools')
devtools::install_github('catboost/catboost', subdir = 'catboost/R-package')

 

Warum R, ich mag es nicht... Kommandozeile oder dll :)

 

Ich habe ein neuronales Netzwerk Regression Predictor, zeigt es ein Histogramm der aktuellen Preis-Vorhersage-Modell für n Bars voraus (15 in diesem Fall), Züge für 5000 Bars und retrains alle 500 Bars. Es sieht auf den ersten Blick gut aus, aber natürlich geht es nicht so schnell, wie ich es gerne hätte, denn ich möchte eigentlich mehrere von ihnen ausbilden :)


Wenn man sich also die Minuten ansieht, ist die Abweichung ziemlich gering, natürlich kann sie bei den extremen Emissionen hoch sein, aber im Durchschnitt liegt sie im Bereich von 100 Punkten (5-stellig).

Die leckersten habe ich mit Pfeilen eingekreist

 
Maxim Dmitrievsky:

Es funktioniert nicht so schnell, wie ich es gerne hätte,

Auf ALGLIB?

 
elibrarius:

Auf ALGLIB?


ja

natürlich können Sie mit externen NS oder Gerüst, zum Beispiel CatBoost auf gpu verdreht bekommen, aber ich bin zu faul und haben keine Zeit zu

es kommt auf die Geschwindigkeit an, je höher die Geschwindigkeit, desto schwieriger ist es, sie im Prüfgerät zu testen

 

ALGLIB ist eine schreckliche Lernbremse.

240-50-1 netto auf ALGLIB serviert - 2 Tage gewartet, nicht gewartet und abgeschaltet.

Ich habe das 70-5-1 Netzwerk in einer halben Stunde trainiert. Und nnet aus R wurde in weniger als einer Minute mit denselben Daten trainiert. Jetzt versuche ich, es mit R herauszufinden.

 
elibrarius:

ALGLIB ist eine schreckliche Lernbremse.

240-50-1 netto auf ALGLIB serviert - 2 Tage gewartet, nicht gewartet und abgeschaltet.

Ich habe das 70-5-1 Netzwerk in einer halben Stunde trainiert. Und nnet aus R wurde in weniger als einer Minute mit denselben Daten trainiert. Jetzt sitze ich also hier und beschäftige mich mit R.


RF mehr oder weniger, 50 Eingaben von 5000, 100 Bäume, 25 Sekunden im Durchschnitt (auf Laptop). Aber für die Optimierung ist es auch sehr lang. NS ist wirklich langsam, aber es ist ein reguläres MLP, man sollte nichts anderes von ihm erwarten.

Ich brauche es, um alles in höchstens einer Sekunde zu lernen, wo bekomme ich es? )

 

Wieder einmal bin ich davon überzeugt, dass ein Gerüst nicht extrapolieren kann, egal wie oft hier behauptet wird, dass es das nicht kann:

über der roten Linie 150 Trainingspreise (Ein- und Ausstiege). Danach begann der Markt zu fallen, neue Preise tauchten auf, die nicht in der Trainingsstichprobe enthalten waren (wurden nicht in die Ausgabe eingespeist). Der Wald begann, den niedrigsten Preis, den er zum Zeitpunkt des Trainings kannte, nämlich 1,17320, der der horizontalen Linie entspricht, als Prognose zu erstellen. Dadurch wurde auch das Histogramm der Residuen verzerrt.

Wälder wissen NICHT, wie man EXTRAPLORE macht. Alle klugen Köpfe bleiben im zweiten Jahr zurück, um die Mathematik neu zu lernen.


  • genau wie Entscheidungsbäume ist der Algorithmus völlig unfähig zur Extrapolation
http://alglib.sources.ru/dataanalysis/decisionforest.php
 

Preise ohne jegliche Umrechnung werden nicht in das Modell eingespeist.

Das Gerüst für die Extrapolation nimmt den nächstliegenden bekannten Wert. Das Neuron oder das Lineal in der Extrapolation wird etwas nach den internen Formeln berechnen. Aber in Wirklichkeit werden alle diese Modelle in dieser Situation verschmelzen, so dass es keinen Unterschied gibt.