Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3145

 
Maxim Dmitrievsky #:

В ходе похожего эксперимента по отбору информативных признаков, я перебрал все способы. Благо это несложно. Начиная от корреляции, взаимной информации и knn, через OLS и SVM к форесту, бустингу и нейросетям (глубокие не трогал). Получилось, что лучше всего через бустинг. На втором месте OLS.

Обоснование очень простое: если бустинг урезать до одного дерева с одним сплитом, то можно оценивать mutual information, sample или permutation entropy и отчасти OLS.

Ни один из перечисленных алгоритмов НЕ дает предсказательной способности, как и сотни алгоритмов МО, которые тупо вычисляют importance, которая показывает частоту использования признака алгоритмом: Если подали в алгоритм МО мусор, то любой алгоритм МО вычислит важность этого мусора.

 
СанСаныч Фоменко #:

Ни один из перечисленных алгоритмов НЕ дает предсказательной способности, как и сотни алгоритмов МО, которые тупо вычисляют importance, которая показывает частоту использования признака алгоритмом: Если подали в алгоритм МО мусор, то любой алгоритм МО вычислит важность этого мусора.

Ошибка классификации/регрессии дает. Думаю достаточно в эти странные  игры играть, по кругу ходите :) А там такая дверка есть, чтобы выйти.
 
Maxim Dmitrievsky #:
Ошибка классификации/регрессии дает. Думаю достаточно в эти странные  игры играть, по кругу ходите :) А там такая дверка есть, чтобы выйти.

Ходим по кругу вдвоем по причине того что Вы тупите, якобы не понимая того, что я пишу.

Кода не будет. Сами думайте.

 
СанСаныч Фоменко #:

Ходим по кругу вдвоем по причине того что Вы тупите, якобы не понимая того, что я пишу.

Кода не будет. Сами думайте.

Жаль)))

 

Здесь был раньше Юрий Асауленко вроде, не помню фамилию. Он тоже все время что-то зачем-то писал, без подробностей. 

Когда его просили "ну ты хоть объясни зачем ты это пишешь", он говорил чтобы сами догадались. 

 

отличайте балаболов от практиков...

Это же так просто....

2-3 признака, всего лишь...

можно классификатор на одном дереве решений построить и он будет лучше работать чем доверчивые вы...

 
СанСаныч Фоменко #:

Окно - это количество значений предикторов, которое подается на вход модели. У меня - это 1500 бар на Н1.

Саныч, окно в 1500 баров Н1 - это постоянно одно и то же: касательная к середине окна.

Выше сказано - ходим по кругу.

Это верно!

 
mytarmailS #:

отличайте балаболов от практиков...

Это же так просто....

2-3 признака, всего лишь...

можно классификатор на одном дереве решений построить и он будет лучше работать чем доверчивые вы...

Балаболы это те кто пишет статьи и рекламирует себя тут на форуме, а не торгует.) 

 
Maxim Dmitrievsky #:

Здесь был раньше Юрий Асауленко вроде, не помню фамилию. Он тоже все время что-то зачем-то писал, без подробностей. 

Когда его просили "ну ты хоть объясни зачем ты это пишешь", он говорил чтобы сами догадались. 

О да! А какие они с Ренатом Ахтямовым эпичные простыни выдавали. Эпичные по объёму и бессмысленности)

 
СанСаныч Фоменко #:

Ходим по кругу вдвоем по причине того что Вы тупите, якобы не понимая того, что я пишу.

Кода не будет. Сами думайте.

Кода не надо. Судя по тому, что у вас от шага к шагу меняется даже набор признаков, речь идёт об обычном переобучении при подгонке к некоему придуманному вами "критерию предсказательности". Не может идти речь ни о какой стабильности, если закономерность так сильно скачет от шага к шагу.

Причина обращения: