Maschinelles Lernen im Handel: Theorie, Modelle, Praxis und Algo-Trading - Seite 580

 
Yuriy Asaulenko:
Ich danke Ihnen. Ich frage mich, ob es irgendwelche Monographien gibt, die in der Natur existieren?

nicht gefunden... nur in den Wäldern von Breyman - dem Waldschöpfer - gesehen

 
Yuriy Asaulenko:

...

Ich hätte gerne etwas Großes und Detailliertes).


... und gründlich.


Zykov A.A. Grundlagen der Graphentheorie. -Moskau: Nauka. Chefredakteur, Physik und Mathematik, 1987.

Eine systematische Einführung in die Graphentheorie, gegliedert nach der inneren Logik ihrer Entwicklung.


Im Netz gibt es einige Links zum Herunterladen.

 

Warum nicht eine Montageanleitung für Traktoren?

 

Eine neue Version der Bibliothek zur Anbindung von Python an MT5 wurde veröffentlicht. Aufruf des Linkshttps://github.com/RandomKori/Py36MT5 Aber es gibt Probleme. In Visual Studio funktioniert das Testprojekt wie es sollte, aber in MT gibt es einige unklare Probleme. Jetzt funktioniert die Bibliothek problemlos mit dem Verzeichnis, in dem sich das Python-Skript befindet. Ich weiß nicht, wie ich den Link zu MT debuggen kann. MT ist vor dem Debugger geschützt. Vielleicht weiß jemand, wie man Fehler beheben kann?

 
Maxim Dmitrievsky:

Warum nicht eine Montageanleitung für Traktoren?


Ist das Ihre Vorstellung von einem Scherz?

Ich gebe Ihnen nützliche Informationen und im Gegenzug ... sind Sie wie ein Teenager, unhöflich, und Sie denken, Sie seien der beste Witz in der Branche ... es ist erbärmlich.

Sie haben wahrscheinlich genug von einem Buch, so wie einige Figuren hier...

 
Oleg Avtomat:

Soll das ein Scherz sein?

Mann, ich gebe Ihnen nützliche Informationen und im Gegenzug ... Sie sind wie ein Teenager, unhöflich, und Sie denken, Sie sind der beste Witz in der Branche ... es ist erbärmlich.

Sie haben wahrscheinlich genug von einem Buch, wie einige der Figuren hier...


was ist da nützlich? wie baut man einen graph-baum auf? sehr nützlich...

weil sie das ganze Buch lesen müssen?

 
Maxim Dmitrievsky:

was ist da nützlich? wie baut man einen graph-baum auf? sehr nützlich...

Müssen Sie deshalb das ganze Buch lesen?


Deshalb fummeln Sie daran herum, weil Sie das Grundwissen nicht haben und nicht haben wollen. Sie haben das Wissen und das Verständnis nicht. Es fehlt Ihnen an Wissen und Verständnis, aber ein Buch und mehrere Artikel reichen nicht aus.

 
Oleg Avtomat:

Das ist der Grund, warum Sie auf den Dingen herumtrampeln, weil Sie keine gründlichen Kenntnisse haben und auch nicht wollen. Sie haben nicht das Wissen und das Verständnis. Und dafür reichen ein Buch und ein paar Artikel, die man einmal gelesen hat, nicht aus.


Wie man lebt, wie man lebt... Panik-Panik... das Einmaleins und die Theorie und Ontologie des Wissens lernen

 
Yuriy Asaulenko:
Ich danke Ihnen. Ich frage mich, ob es irgendwelche Monographien gibt, ob sie überhaupt in freier Wildbahn vorkommen?

Hören Sie auf, herumzualbern und nehmen Sie ein R: Der Code muss von einem Link zu einer Quelle begleitet werden, die die Theorie dieses Codes beschreibt.

Hier finden Sie Hinweise auf den klassischen Algorithmus von Breiman:

Breiman, L. (2001), Random Forests, Maschinelles Lernen 45(1), 5-32.

Breiman, L (2002), 'Manual On Setting Up, Using, And Understanding Random Forests V3.1', http://oz.berkeley.edu/users/breiman/Using_random_forests_V3.1.pdf.


Wenn man R verwendet, gibt es bereits eine Vielzahl von Wäldern, die dort gesammelt wurden, und man würde sehen, dass es neben randomForest auch andere Wälder gibt, die eine Vielzahl von Nuancen der ursprünglichen id spezifizieren.

Zum Beispiel randomForestSRC, randomUniformForest.

Der interessanteste und effizienteste Algorithmus der gleichen Art ist ada.

Hier sind die Referenzen (diese sind alle aus der Dokumentation der R-Pakete)

Friedman, J. (1999). Greedy Function Approximation: Eine Gradient Boosting Machine. TechnischerBericht, Abteilung für Statistik, Universität Standford.

Friedman, J., Hastie, T., und Tibshirani, R. (2000). Additive logistische Regression: Eine statistische Perspektivedes Boosting. Annals of Statistics, 28(2), 337-374.

Friedman, J. (2002). Stochastisches Gradient Boosting. Coputational Statistics{& Data Analysis 38.Culp, M., Johnson, K., Michailidis, G. (2006). ada: an R Package for Stochastic Boosting Journalof Statistical Software, 16.


Es gibt mehrere Varianten der ada.


Aber R selbst trifft eine thematische Auswahl.

Nach Bäumen:

  • Random Forests: Die Referenzimplementierung des Random-Forest-Algorithmus für Regression und Klassifikation ist im PaketrandomForest verfügbar. Das Paketipred bietet Bagging für Regressions-, Klassifikations- und Überlebensanalysen sowie Bundling, eine Kombination mehrerer Modelle durch Ensemble-Lernen. Zusätzlich ist eine Random-Forest-Variante für Antwortvariablen, die auf beliebigen Skalen gemessen werden und auf bedingten Inferenzbäumen basieren, im Paketparty implementiert.randomForestSRC implementiert eine einheitliche Behandlung von Breimans Random Forests für Überlebens-, Regressions- und Klassifikationsprobleme. Quantile RegressionswälderquantForest ermöglichen die Regression von Quantilen einer numerischen Antwort auf explorative Variablen über einen Random Forest Ansatz. Für binäre Daten istLogicForest ein Wald aus logischen Regressionsbäumen (PaketLogicReg. DiePaketevarSelRF undBorutapackage konzentrieren sich auf die Variablenauswahl mit Hilfe von Random-Forest-Algorithmen. Darüber hinaus bieten die Paketeranger undRborist R-Schnittstellen zu schnellen C++-Implementierungen von Random Forests. Reinforcement Learning Trees, die Splits in Variablen enthalten, die im Verlauf des Baums wichtig sind, sind im PaketRLT implementiert.wsrf implementiert eine alternative Variablengewichtungsmethode für die Auswahl von Variablenunterräumen anstelle der traditionellen Zufallsvariablenauswahl.

Durch sehr enge Baumverwandte:

  • Boosting und Gradient Descent: Verschiedene Formen des Gradient Boosting sind im Paketgbm(tree-based functional gradient descent boosting) implementiert. Das Paketxgboost implementiert baumbasiertes Boosting mit effizienten Bäumen als Basislerner für mehrere und auch benutzerdefinierte Zielfunktionen. Der Scharnierverlust wird durch die Boosting-Implementierung im Paketbst optimiert. Das PaketGAMBoost kann verwendet werden, um verallgemeinerte additive Modelle durch einen Boosting-Algorithmus anzupassen. Ein erweiterbarer Boosting-Rahmen für verallgemeinerte lineare, additive und nichtparametrische Modelle ist im Paketmboost verfügbar. Likelihood-basiertes Boosting für Cox-Modelle ist inCoxBoost und für gemischte Modelle inGMMBoost implementiert. GAMLSS-Modelle können mitgamboostLSS durch Boosten angepasst werden. Eine Implementierung verschiedener Lernalgorithmen auf der Basis von Gradient Descent zur Bewältigung von Regressionsaufgaben ist im PaketgradDescent verfügbar.

Es sind auch Wrapper verfügbar, z.B. ein sehr interessanter Wrapper für Maxim on predictor estimation algorithms:

  • CORElearn implementiert eine recht breite Klasse von Algorithmen des maschinellen Lernens, wie z.B. Nearest Neighbours, Bäume, Random Forests und verschiedene Methoden der Merkmalsauswahl. Das Paketrminer bietet Schnittstellen zu verschiedenen Lernalgorithmen, die in anderen Paketen implementiert sind, und berechnet verschiedene Leistungskennzahlen.



Und wenn ich schreibe, dass Sie ländliche Podlouches nutzen, dann meine ich genau die folgenden Umstände:

  • eine große Anzahl von Nutzern
  • dass eine große Anzahl von Nutzern den Code gut debuggt
  • diese große Zahl von Nutzern gut dokumentiert
  • es ist eine große Anzahl von Nutzern, die die Theorie hinterfragt haben.
  • dass viele Nutzer Veröffentlichungen erstellt haben, von gegenseitigen Streitigkeiten bis hin zu praktischen Anwendungen.
 

AdaBoost ist nicht besser als Bagging für Forex, da es schlecht passt, vor allem auf große Dimensionen Daten. vor allem, da es bereits in seiner Klasse veraltet ist, gibt es xgboost. und der Rest ist immer noch ein work in progress :)

Ich glaube auch nicht wirklich an die Funktionalität von Importeuren auf dem Devisenmarkt... aber es ist gut, sich für die allgemeine Bildung damit vertraut zu machen, z. B. Doping Gini zu Alglieb