L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2945

 
J'adore le R, pour moi c'est la meilleure langue du monde, mais les publicités constantes de Sanych dans chacun de ses posts me rendent vraiment malade.
 
Stanislav Korotky #:

Non, c'est vide. J'ai oublié de mentionner qu'il s'agit de bouster.

Eh bien, ici,


et ici.


Mais les formules semblent y être différentes, ou écrites sous une forme plus complète....

 
Aleksey Vyazmikin #:

Voici donc,


et ici


Mais les formules semblent y être différentes, ou écrites sous une forme plus complète....

L'agriculture collective est volontaire ! Mais pourquoi faire de la propagande pour l'agriculture collective ? Pourquoi encore des conférences sur YouTube, alors qu'il existe une documentation technique et un code de programme. Je note que le gbm lui-même n'est qu'une partie du paquet, il y a beaucoup d'autres choses à côté de la fonction elle-même.

Voici un lien vers le paquet gbm

Voici un lien vers la théorie

Voici un lien vers le manuel

Et voici la liste de la littérature sur gbm.

Références Y. Freund et R.E. Schapire (1997) "A decision-theoretic generalisation of on-line learning and an application to boosting," Journal of Computer and System Sciences, 55(1):119-139.

G. Ridgeway (1999). "The state of boosting", Computing Science and Statistics 31:172-181.

J.H. Friedman, T. Hastie, R. Tibshirani (2000). "Additive Logistic Regression : a Statistical View of Boosting", Annals of Statistics 28(2):337-374.

J.H. Friedman (2001). "Greedy Function Approximation : A Gradient Boosting Machine", Annals of Statistics 29(5):1189-1232.

J.H. Friedman (2002). "Stochastic Gradient Boosting", Computational Statistics and Data Analysis 38(4):367-378.

B. Kriegler (2007). Cost-Sensitive Stochastic Gradient Boosting Within a Quantitative Regression Framework. Thèse de doctorat. Université de Californie à Los Angeles, Los Angeles, CA, États-Unis. Conseiller(s) : Richard A. Berk. urlhttps://dl.acm.org/citation.cfm?id=1354603.

C. Burges (2010). "From RankNet to LambdaRank to LambdaMART : An Overview," Microsoft Research Technical Report MSR-TR-2010-82

gbm: Generalized Boosted Regression Models
gbm: Generalized Boosted Regression Models
  • cran.r-project.org
An implementation of extensions to Freund and Schapire's AdaBoost algorithm and Friedman's gradient boosting machine. Includes regression methods for least squares, absolute loss, t-distribution loss, quantile regression, logistic, multinomial logistic, Poisson, Cox proportional hazards partial likelihood, AdaBoost exponential loss, Huberized hinge loss, and Learning to Rank measures (LambdaMart). Originally developed by Greg Ridgeway.
 
Aleksey Vyazmikin #:

Voici donc,


et ici


Mais les formules semblent y être différentes, ou écrites sous une forme plus complète....

De même pour xgboost

xgboost: Extreme Gradient Boosting
xgboost: Extreme Gradient Boosting
  • cran.r-project.org
Extreme Gradient Boosting, which is an efficient implementation of the gradient boosting framework from Chen & Guestrin (2016) < doi:10.1145/2939672.2939785 >. This package is its R interface. The package includes efficient linear model solver and tree learning algorithms. The package can automatically do parallel computation on a single machine which could be more than 10 times faster than existing gradient boosting packages. It supports various objective functions, including regression, classification and ranking. The package is made to be extensible, so that users are also allowed to define their own objectives easily.
 
СанСаныч Фоменко #:

L'agriculture collective est volontaire ! Mais pourquoi faire la propagande des kolkhozes ? Quelles conférences sur YouTube, alors qu'il existe une documentation technique et un code de programme. Je note que le gbm lui-même n'est qu'une partie du paquet, il y a beaucoup d'autres choses à côté de la fonction elle-même.


Voici un lien vers la théorie

Ce qu'il faut, c'est une explication, pas seulement des formules, c'est pourquoi il est suggéré d'expliquer une personne à travers la perception de la matière par le conférencier.

Et sur le lien, je n'ai pas vu la théorie avec des formules.

 
Aleksey Vyazmikin #:

Ce qu'il faut, c'est une explication, pas seulement des formules, et c'est pourquoi il est proposé une explication humaine à travers la perception de la matière par le conférencier.

Et sur le lien, je n'ai pas vu la théorie avec des formules.

Ce n'est pas tant pour vous, qui ne voulez pas voir à l'aveugle, que pour les autres qui aiment la théorie.

Et surtout, vous ne comprenez pas la différence entre un yada yada sur youtube et un outil fonctionnel de la théorie au code testé par de nombreuses personnes.

Dossiers :
gbm.zip  257 kb
 
Aleksey Nikolayev #:

Le modèle s'exécute dans le script mql5, mais ne s'exécute pas dans python parce que le paquet onnxruntime n'est pas installé.

Le paquet onnxruntime n'est pas encore installé dans python 3.11. J'ai installé python 3.10, dans lequel tout est installé et la sortie fonctionne.

 
СанСаныч Фоменко #:

Pas tant pour vous, qui ne voulez pas voir à brûle-pourpoint, que pour les autres qui aiment la théorie.

Et surtout, vous ne comprenez pas la différence entre un yada yada yada sur youtube et un outil fonctionnel de la théorie au code testé par de nombreuses personnes.

Pourquoi l'arrogance ? Vous feriez mieux de me montrer où vous l'avez téléchargé - j'ai personnellement regardé à nouveau et je n'ai pas compris.

Hm, pourquoi avons-nous besoin de professeurs dans les instituts ?

 
À propos de l'apprentissage par renforcement
 
mytarmailS #:
À propos de l'apprentissage par renforcement
h ttps://youtu.be/I-wd3ZUrReg

En psychologie, on parle de projection....

Et donc, oui, c'est exactement ce qu'il dit et il y a formation de modèles - ce qui est imaginé est mémorisé.