Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 1710

 
Aleksey Vyazmikin:
elibrarius:

А можно вопрос?

Почему именно кетбуст? Что в нем есть чего нету в аналогах ?

 
elibrarius:
Тестовой выборки нет.
Всего в наборе данных 891 строка.

Думаю, что там используется одна из формул rms,rmse,cls или еще что-то. Главное, что результат сходится в точках 0%, 50% и 100%. А между ними изогнуто. Разделение по классам обычно по 50% делается, а в этом месте совпадение с обычной вероятностью есть. Так что решил оставить вопрос нерешенным.

Мда, там что б разобраться в глубине идеи надо код тормошить. Но интересно, как они присваивают веса листьям с учетом уже имеющихся.

 
mytarmailS:

А можно вопрос?

Почему именно кетбуст? Что в нем есть чего нету в аналогах ?

Мне он интересен по причинам:

1. Поддержка - много информации и обратная связь с разработчиками.

2. Быстрое обучение - использование всех ядер процессора.

3. Гибкие настройки по построению модели и контролю переобучения - хотя тут много чего можно улучшить.

4. Возможность применять бинарные симметричные модели после обучения в MQL5, но это не моя разработка.

 
Aleksey Vyazmikin:

спасибо

 

Может кому то будет интересно

Вышла новая книжка по прогнозированию временных рядов в R, в том числе в примерах есть прогнозирование биткоина

https://ranalytics.github.io/tsa-with-r/

 
Aleksey Vyazmikin:

Мда, там что б разобраться в глубине идеи надо код тормошить. Но интересно, как они присваивают веса листьям с учетом уже имеющихся.

По определению
Идея градиентного бустинга состоит в построении ансамбля последовательно уточняющих друг друга элементарных моделей. n-ная элементарная модель обучается на “ошибках” ансамбля из n-1 моделей, ответы моделей взвешенно суммируются. “Ошибки” здесь в кавычках, поскольку на самом деле каждая последующая модель приближает антиградиент функции потерь, который не обязательно равен разности фактических и предсказанных значений (т.е. ошибке в буквальном смысле).

Похоже что веса определяются как обычно - по вероятности.
Но сплит видимо выбирается не просто лучший, а который улучшает общий результат. Но это лишь предположение. В коде разбираться нереально, там километры листинга. Это не 4000 строк из алглиба.

mytarmailS:

Почему именно кетбуст? Что в нем есть чего нету в аналогах ?

Согласен с Алексеем. Есть небольшой опыт с xgboost. Можно будет на практике сравнить.
 
elibrarius:

Я просто к чему спрашивал, я вижу как вы мучаетесь с этими деревьями с кетбуста, с выводом там какие то проблемы, костыли.. 

Я немного вник  в тему "rule induction" и вижу что в R есть много пакетов по генерации правил или ансамблей правил..


1) правила выводить легко, одной строчкой

2) правила легко читаемые для человека

3) видов построений правил куча, от тривиальной до генетики

4) качество прогнозирование на уровне всего другого


Так вот я думаю может вам не мучиться с этим кетбустом? , а взять уже что то более приятное что ли..

 
mytarmailS:

Макс! напомни мне как называются эти модели...

1) Обучается модель 1

2) по предсказаниям на тестовых данных модели 1    обучается модель 2  итп..

стекинг ?

meta labeling de prado

 
mytarmailS:

Я просто к чему спрашивал, я вижу как вы мучаетесь с этими деревьями с кетбуста, с выводом там какие то проблемы, костыли.. 

Я немного вник  в тему "rule induction" и вижу что в R есть много пакетов по генерации правил или ансамблей правил..


1) правила выводить легко, одной строчкой

2) правила легко читаемые для человека

3) видов построений правил куча, от тривиальной до генетики

4) качество прогнозирование на уровне всего другого


Так вот я думаю может вам не мучиться с этим кетбустом? , а взять уже что то более приятное что ли..

Дерево - вполне себе генератор правил. Легко читаемо.
Лес/буст это ансамбль деревьев = правил.

4) Вы уверены? Эти пакеты участвовали в каких то конкурсах по МО? Обходили бустовые модели? Можно ссылку на результаты конкурса?
Приведите пример какого нибудь пакета из победителей для ознакомления, желательно на русском.
 
elibrarius:
Дерево - вполне себе генератор правил. Легко читаемо.
Лес/буст это ансамбль деревьев = правил.

4) Вы уверены? Эти пакеты участвовали в каких то конкурсах по МО? Обходили бустовые модели? Можно ссылку на результаты конкурса?
Приведите пример какого нибудь пакета из победителей для ознакомления, желательно на русском.

вы не поняли о чем я, или я вас не понял, мне показалось что у вас проблемы с интерпретацией и внедрением кетбуста, если все гуд то все гуд )

4) Я написал "на уровне" )  ...  Сравнивал с RF на тех же данных , разница 1-3% в худшую сторону

Причина обращения: