Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2315

 
Maxim Dmitrievsky:

область применения вроде затронули, но вообще не раскрыли. Вместо этого началась какая-то каша из бабьего рота

из сегодняшней галиматьи по ИИ и около ИИ в науку ляжет менее сотой процента....

Согласен?

 
Valeriy Yastremskiy:

из сегодняшней галиматьи по ИИ и около ИИ в науку ляжет менее сотой процента....

Согласен?

смотря в какую науку )

там интересные фишки от переобучения, но они их не раскрыли, а где еще почитать про это не нашел пока
 
Maxim Dmitrievsky:

смотря в какую науку )

там интересные фишки от переобучения, но они их не раскрыли, а где еще почитать про это не нашел пока

наука это знания, которыми пользуются. без разницы название науки) промежуточные результаты знания не остануться)))

 
Maxim Dmitrievsky:

предсказание неопределенности интересная штука


У них там ссылка на статью - на первый взгляд просто обычный Байес плюс нормальные распределения.

Uncertainty in Gradient Boosting via Ensembles
  • arxiv.org
For many practical, high-risk applications, it is essential to quantify uncertainty in a model's predictions to avoid costly mistakes. While predictive uncertainty is widely studied for neural networks, the topic seems to be under-explored for models based on gradient boosting. However, gradient boosting often achieves state-of-the-art results on tabular data. This work examines a probabilistic ensemble-based framework for deriving uncertainty estimates in the predictions of gradient boosting classification and regression models. We conducted experiments on a range of synthetic and real datasets and investigated the applicability of ensemble approaches to gradient boosting models that are themselves ensembles of decision trees. Our analysis shows that ensembles of gradient boosting models successfully detect anomaly inputs while having limited ability to improve the predicted total uncertainty. Importantly, we also propose a concept of a \emph{virtual} ensemble to get the...
 
Aleksey Nikolayev:

У них там ссылка на статью - на первый взгляд просто обычный Байес плюс нормальные распределения.

только пока не понял какую кнопку нажать, чтобы для классификации результаты получались лучше

для регрессии только пример

понял, что по дефолту используется importance sampling по максимальному градиенту (типа новая фича)

или это просто встроено по дефолту и ничего делать не надо

кстати, катбуст очень крут в плане переобучения.. очень сложно заставить его переобучиться. Если датасет г... то и обучится плохо, а не запомнит все варианты
 

смотрю пока что другой видос


 
Valeriy Yastremskiy:

наука это знания, которыми пользуются. без разницы название науки) промежуточные результаты знания не остануться)))

ну там как бы со знаниями все ок, просто области применения надо смотреть

сам по себе алгоритм бустинга остается очень крутым. Если бы еще нормальных ораторов с студию
 
Maxim Dmitrievsky:

ну там как бы со знаниями все ок, просто области применения надо смотреть

сам по себе алгоритм бустинга остается очень крутым. Если бы еще нормальных ораторов с студию

софизмы это все ))) без промежуточных знаний, знаний не будет) на промежуточном этапе всяко бывает, на СБ похожи обычно времена перемен)))

 
Valeriy Yastremskiy:

софизмы это все ))) без промежуточных знаний, знаний не будет) на промежуточном этапе всяко бывает, на СБ похожи обычно времена перемен)))

понятно

 
Maxim Dmitrievsky:

только пока не понял какую кнопку нажать, чтобы для классификации результаты получались лучше

для регрессии только пример

понял, что по дефолту используется importance sampling по максимальному градиенту (типа новая фича)

или это просто встроено по дефолту и ничего делать не надо

кстати, катбуст очень крут в плане переобучения.. очень сложно заставить его переобучиться. Если датасет г... то и обучится плохо, а не запомнит все варианты

Судя по всему, мы с вами фиксируемся на разных стадиях процесса) Мне интересен процесс построения исходной вероятностной модели - если она более-менее описывает реальность, то любой более-менее осмысленный алгоритм даст результат при последующих вычислениях.

Причина обращения: