L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 580

 
Yuriy Asaulenko:
Merci. Je me demande s'il existe des monographies, dans la nature ?

non trouvé... seulement vu sur les forêts de Breyman - le créateur de la forêt

 
Yuriy Asaulenko:

...

J'aimerais quelque chose de grand et de détaillé).


... et minutieux.


Zykov A.A. Fundamentals of graph theory. -Moscou : Nauka. Rédacteur en chef, Physics and Mathematics, 1987.

Une introduction systématique à la théorie des graphes, structurée selon la logique interne de son développement.


Il y a quelques liens pour le téléchargement dans le réseau.

 

Pourquoi pas un manuel d'assemblage de tracteur ?

 

Une nouvelle version de la bibliothèque permettant de connecter Python à MT5 a été mise en ligne. Rappeler le lienhttps://github.com/RandomKori/Py36MT5 Mais il y a des problèmes. Dans Visual Studio, le projet de test fonctionne comme il le devrait, mais dans MT, il y a quelques problèmes peu clairs. Maintenant la bibliothèque fonctionne bien avec le répertoire où se trouve le script Python. Je ne sais pas comment déboguer le lien avec MT. MT est protégé du débogueur. Peut-être que quelqu'un sait comment déboguer ?

 
Maxim Dmitrievsky:

Pourquoi pas un manuel d'assemblage de tracteur ?


C'est votre idée d'une blague ?

Je vous donne des informations utiles et en retour ... vous êtes comme un adolescent, grossier, et vous pensez que vous êtes le meilleur esprit dans le métier ... c'est pathétique.

Vous avez probablement eu assez d'un livre, comme certains personnages ici...

 
Oleg avtomat:

C'est votre idée d'une blague ?

Mec, je te donne des informations utiles, et en retour... tu es comme un adolescent, grossier, et tu penses être le meilleur esprit du métier... c'est pathétique.

Vous avez probablement eu assez d'un livre, comme certains des personnages ici...


qu'est-ce qui est utile là-dedans ? comment construire un arbre graphique ? très utile...

à cause de ce besoin de lire le livre en entier ?

 
Maxim Dmitrievsky:

qu'est-ce qui est utile là-dedans ? comment construire un arbre graphique ? très utile...

C'est pour ça que tu dois lire le livre en entier ?


c'est pourquoi vous bricolez par-dessus, parce que vous n'avez pas les connaissances de base et que vous ne voulez pas les avoir. vous n'avez pas les connaissances et la compréhension. Vous manquez de connaissances et de compréhension, mais un livre et plusieurs articles ne suffisent pas.

 
Oleg avtomat:

C'est pour cela que vous bricolez par-dessus les choses, parce que vous n'avez pas une connaissance approfondie, et vous ne le voulez pas. Vous n'avez pas la connaissance et la compréhension. Et pour cela, un livre et quelques articles que vous avez lus ne suffisent pas.


Comment vivre, comment vivre... panique-panique... allez apprendre la table de multiplication et la théorie et l'ontologie de la connaissance

 
Yuriy Asaulenko:
Merci. Je me demande s'il existe des monographies, s'ils existent même à l'état sauvage ?

Arrêtez de déconner et prenez un R : le code doit être accompagné d'un lien vers une source qui décrit la théorie de ce code.

Voici les références de l'algorithme classique de Breiman :

Breiman, L. (2001), Random Forests, Machine Learning 45(1), 5-32.

Breiman, L (2002), 'Manual On Setting Up, Using, And Understanding Random Forests V3.1', http://oz.berkeley.edu/users/breiman/Using_random_forests_V3.1.pdf.


De plus, si l'on utilise R, une grande variété de forêts y est déjà collectée et l'on verrait qu'il existe d'autres forêts que randomForest qui spécifient une grande variété de nuances de l'id original.

Par exemple, randomForestSRC, randomUniformForest.

L'algorithme le plus intéressant et le plus efficace de la même race est ada.

Voici les références (elles sont toutes issues de la documentation des paquets R)

Friedman, J. (1999). Approximation de fonction par la cupidité : une machine à boosting de gradient.Rapporttechnique, Département des statistiques, Université de Standford.

Friedman, J., Hastie, T., et Tibshirani, R. (2000). Régression logistique additive : une perspective statistiquedu boosting. Annals of Statistics, 28(2), 337-374.

Friedman, J. (2002). Stochastic Gradient Boosting. Coputational Statistics{& Data Analysis 38.Culp, M., Johnson, K., Michailidis, G. (2006). ada : an R Package for Stochastic Boosting Journalof Statistical Software, 16.


Il existe plusieurs variantes de l'ada.


Mais R lui-même fait des compilations thématiques.

Par les arbres :

  • Random Forests: L'implémentation de référence de l'algorithme de la forêt aléatoire pour la régression et la classification est disponible dans le packagerandomForest. Le paquetipred propose la mise en sac pour la régression, la classification et l'analyse de survie ainsi que la mise en sac, une combinaison de plusieurs modèles via l'apprentissage d'ensemble. En outre, une variante de forêt aléatoire pour les variables de réponse mesurées à des échelles arbitraires, basée sur des arbres d'inférence conditionnelle, est implémentée dans le packageparty.randomForestSRC implémente un traitement unifié des forêts aléatoires de Breiman pour les problèmes de survie, de régression et de classification. Les forêts de régression quantilequantForest permettent de régresser les quantiles d'une réponse numérique sur des variables exploratoires via une approche de forêt aléatoire. Pour les données binaires,LogicForest est une forêt d'arbres de régression logique (packageLogicReg. LespaquetsvarSelRF etBorutap se concentrent sur la sélection des variables au moyen d'algorithmes de forêt aléatoire. En outre, les paquetsranger etRborist offrent des interfaces R pour des implémentations C++ rapides des forêts aléatoires. Les arbres d'apprentissage par renforcement, comportant des divisions de variables qui seront importantes en bas de l'arbre, sont implémentés dans le packageRLT.wsrf implémente une méthode alternative de pondération des variables pour la sélection du sous-espace des variables à la place de l'échantillonnage traditionnel des variables aléatoires.

Par des arbres très proches :

  • Boosting et descente de gradient: Diverses formes de boosting de gradient sont implémentées dans le paquetgbm(boosting fonctionnel de descente de gradient basé sur les arbres). Le paquetxgboost implémente le boosting basé sur les arbres en utilisant des arbres efficaces comme apprenants de base pour plusieurs fonctions objectives et aussi définies par l'utilisateur. La perte de charnière est optimisée par l'implémentation du boosting dans le paquetbst. Le paquetGAMBoost peut être utilisé pour ajuster des modèles additifs généralisés par un algorithme de boosting. Un cadre extensible de boosting pour les modèles linéaires généralisés, additifs et non paramétriques est disponible dans le paquetmboost. Le boosting basé sur la vraisemblance pour les modèles de Cox est implémenté dansCoxBoost et pour les modèles mixtes dansGMMBoost. Les modèles GAMLSS peuvent être ajustés en utilisant le boosting pargamboostLSS. Une mise en œuvre de divers algorithmes d'apprentissage basés sur la descente de gradient pour traiter les tâches de régression est disponible dans le paquetgradDescent.

Il existe également des wrappers disponibles, par exemple un très intéressant pour Maxim sur les algorithmes d'estimation des prédicteurs :

  • CORElearn met en œuvre une classe assez large d'algorithmes d'apprentissage automatique, tels que les voisins les plus proches, les arbres, les forêts aléatoires et plusieurs méthodes de sélection de caractéristiques. De même, le paquetrminer interface plusieurs algorithmes d'apprentissage mis en œuvre dans d'autres paquets et calcule plusieurs mesures de performance.



Et quand j'écris que vous utilisez des podlouches ruraux, je veux dire exactement les circonstances suivantes :

  • un grand nombre d'utilisateurs
  • qu'un grand nombre d'utilisateurs ont bien débogué le code
  • ce grand nombre d'utilisateurs bien documentés
  • c'est un grand nombre d'utilisateurs qui ont scruté la théorie.
  • que de nombreux utilisateurs ont créé des publications, allant des différends mutuels aux applications pratiques.
 

AdaBoost n'est pas meilleur que le bagging pour le forex parce qu'il se surajuste mal, surtout sur des données de grande dimension. d'autant plus qu'il est déjà obsolète dans sa catégorie, il y a xgboost. et le reste est encore un travail en cours :)

Je ne crois pas vraiment non plus à la fonctionnalité des importateurs sur le forex... mais il est bon de s'y familiariser pour l'éducation générale, par exemple en dopant gini à alglieb