Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2944

 
Forester #:
О!
Наконец то кто-то про индекс Джини знает... Я еще в 18м искал, код для него. https://www.mql5.com/ru/blogs/post/723619

Есть ещё коэффициент Джини. Он тоже используется в МО, но это другое)

 
Stanislav Korotky #:

Поясните плиз как получается следующая формула в алгоритме классификации на деревьях с бустингом (можно ссылочку на PDF):


Во всех материалах, которые удалось находить в инете, формула просто волшебным образом "берется с потолка".

Откуда Вы взяли формулу? Судя по"с потолка" обычный колхоз, скорее всего советский.

Надо пользоваться профессиональной математикой, для которой имеются хорошо отлаженные алгоритмы.

R имеет огромное количество деревянных моделей, причем отличие профессионального языка R от очень многих других - это обязательные ссылки на авторов алгоритма и соответствующую публикацию. Навскидку не могу вспомнить ни одной более или менее сложной функции из пакетов R, где бы не было соответствующих ссылок.


Забудьте обо всем кроме R. На сегодня это единственная профессиональная среда для статистических расчетов.

 
Я обожаю R, для меня это самый лучшый язык в мире, но от постоянной  рекламы Саныча в каждом его посте меня уже реально тошнит.. 
 
Stanislav Korotky #:

Не, тут пусто. Я забыл упомянуть, что речь про бустинг.

Тогда тут, 


и тут


Но формулы там кажутся иные, или записаны в более полном виде...

 
Aleksey Vyazmikin #:

Тогда тут, 


и тут


Но формулы там кажутся иные, или записаны в более полном виде...

Колхоз дело добровольное! Но зачем колхоз пропагандировать? Какие еще лекции на ютюбе, когда имеется техническая документация и программный код. Замечу, что сам gbm  - это только часть пакета, еще чего много рядом с самой функцией. 

Здесь ссылка на пакет gbm

Здесь ссылка на теорию

Здесь ссылка на руководство

А вот перечень литературы по поводу gbm.

  References Y. Freund and R.E. Schapire (1997) “A decision-theoretic generalization of on-line learning and an application to boosting,” Journal of Computer and System Sciences, 55(1):119-139.

G. Ridgeway (1999). “The state of boosting,” Computing Science and Statistics 31:172-181.

J.H. Friedman, T. Hastie, R. Tibshirani (2000). “Additive Logistic Regression: a Statistical View of Boosting,” Annals of Statistics 28(2):337-374.

J.H. Friedman (2001). “Greedy Function Approximation: A Gradient Boosting Machine,” Annals of Statistics 29(5):1189-1232.

J.H. Friedman (2002). “Stochastic Gradient Boosting,” Computational Statistics and Data Analysis 38(4):367-378.

B. Kriegler (2007). Cost-Sensitive Stochastic Gradient Boosting Within a Quantitative Regression Framework. Ph.D. Dissertation. University of California at Los Angeles, Los Angeles, CA, USA. Advisor(s) Richard A. Berk. urlhttps://dl.acm.org/citation.cfm?id=1354603.

C. Burges (2010). “From RankNet to LambdaRank to LambdaMART: An Overview,” Microsoft Research Technical Report MSR-TR-2010-82

gbm: Generalized Boosted Regression Models
gbm: Generalized Boosted Regression Models
  • cran.r-project.org
An implementation of extensions to Freund and Schapire's AdaBoost algorithm and Friedman's gradient boosting machine. Includes regression methods for least squares, absolute loss, t-distribution loss, quantile regression, logistic, multinomial logistic, Poisson, Cox proportional hazards partial likelihood, AdaBoost exponential loss, Huberized hinge loss, and Learning to Rank measures (LambdaMart). Originally developed by Greg Ridgeway.
 
Aleksey Vyazmikin #:

Тогда тут, 


и тут


Но формулы там кажутся иные, или записаны в более полном виде...

Аналогично по xgboost

xgboost: Extreme Gradient Boosting
xgboost: Extreme Gradient Boosting
  • cran.r-project.org
Extreme Gradient Boosting, which is an efficient implementation of the gradient boosting framework from Chen & Guestrin (2016) < doi:10.1145/2939672.2939785 >. This package is its R interface. The package includes efficient linear model solver and tree learning algorithms. The package can automatically do parallel computation on a single machine which could be more than 10 times faster than existing gradient boosting packages. It supports various objective functions, including regression, classification and ranking. The package is made to be extensible, so that users are also allowed to define their own objectives easily.
 
СанСаныч Фоменко #:

Колхоз дело добровольное! Но зачем колхоз пропагандировать? Какие еще лекции на ютюбе, когда имеется техническая документация и программный код. Замечу, что сам gbm  - это только часть пакета, еще чего много рядом с самой функцией. 


Здесь ссылка на теорию

Требуется объяснение, а не просто формулы, поэтому и предложено объяснение человека через восприятие материала лектором.

А по ссылке не увидел теории с формулами.

 
Aleksey Vyazmikin #:

Требуется объяснение, а не просто формулы, поэтому и предложено объяснение человека через восприятие материала лектором.

А по ссылке не увидел теории с формулами.

Не столько для Вас, который не хочет видеть в упор, как для других, любящих теорию.

А главное, Вы не понимаете отличий ля-ля по ютюб от рабочего инструмента начиная с теории до кода, проверенного многими людьми.

Файлы:
gbm.zip  257 kb
 
Aleksey Nikolayev #:

Модель запустилась в mql5 скрипте, но не запускается в питоне, поскольку не устанавливается пакет onnxruntime.

В питоне 3.11 пакета onnxruntime пока нет. Поставил питон 3.10, в котором всё установилось и вывод заработал.

 
СанСаныч Фоменко #:

Не столько для Вас, который не хочет видеть в упор, как для других, любящих теорию.

А главное, Вы не понимаете отличий ля-ля по ютюб от рабочего инструмента начиная с теории до кода, проверенного многими людьми.

К чему надменность? Лучше уж показали бы, где скачали конкретно - я лично ещё раз посмотрел и не понял.

Хм, и зачем нужны преподаватели в институтах...

Причина обращения: