Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2387

 
Aleksey Vyazmikin:

Понятно, конструктивного обсуждения не будет - желания понять суть - нет.

нет желания страдать фигней, суть понятна (страдание фигней)

 
elibrarius:
Что-то мудреное.
Чем это лучше простой проверки всех фич добавлением по 1?
Сначала обучили 1000 раз (при 1000 фичах для проверки) на 1 фиче, нашли лучшую. Потом 999 раз на лучшей фиче и 999 оставшихся, выбрали вторую лучшую. Потом на 2 лучших и третьей из 998 оставшихся и т.д.
Всего 2 вложенных цикла.
Модели с малым числом фич обучаются очень быстро. Штук 20-30 лучших наберете за приемлемое время. Да и после 10-20 выбранных фич, модели обычно перестают улучшаться, добавление новых фич после них только ухудшают результат.

Надо искать не лучшую, а их сочетание между собой - именно это и является проблемой. Почему проблемой - потому что все комбинации перебрать невозможно, поэтому и нужен эврестический метод. Ещё проблемой является потенциальная сильная схожесть разных предикторов после их сплитования, а это в ансамблях приведет к завышению вероятности, так как будет много по сути  коррелирующих листьев.

 

человек решил заново изобрести бустинг с помощью бустинга, не будем ему мешать

призывы к здравому смыслу не помогли

 
Maxim Dmitrievsky:

нет желания страдать фигней, суть понятна (страдание фигней)

Почему фигней?

Дает это улучшение - да дает.

Есть теоретическое обоснование - да есть.

Конечно, это улучшение не на порядок.

И да, это может быть мало эффективно для Ваших предикторов - тут допустить я могу обоснование для отказа.

 
нейро жжет ))
забейте на торговлю, делайте из нейросети индикатор

 
Aleksey Vyazmikin:

Почему фигней?

Дает это улучшение - да дает.

Есть теоретическое обоснование - да есть.

Конечно, это улучшение не на порядок.

И да, это может быть мало эффективно для Ваших предикторов - тут допустить я могу обоснование для отказа.

уже все сказал, не буду мешать заниматься перебором неперебираемого 

 
Aleksey Vyazmikin:

Надо искать не лучшую, а их сочетание между собой - именно это и является проблемой. Почему проблемой - потому что все комбинации перебрать невозможно, поэтому и нужен эврестический метод. Ещё проблемой является потенциальная сильная схожесть разных предикторов после их сплитования, а это в ансамблях приведет к завышению вероятности, так как будет много по сути  коррелирующих листьев.

После выбора первой лучшей фичи вторая выберется именно с наилучшим взаимодействием вместе с первой, и т.д. когда 10 наберете, следущая выберется в наилучшим взаимодействием с какой нибцдь из 10 ранее отобранных, но скорее всего со всеми ими.
 
elibrarius:
После выбора первой лучшей фичи вторая выберется именно с наилучшим взаимодействием вместе с первой, и т.д. когда 10 наберете. Следущая выберестя в наиучшим взаимодействием с какой нибцдь из ранее отобранных, но скорее всего со всеми ими

да не работает это так

убери фичи с низким импортансом из модели и сломай её, потом сравни ж.. с пальцем (другими фичами), и так по кругу

 

улучшение на 1-2% моно получить, несколько раз переобучив одну и ту же модель )

но не 512 раз же ))

 
Maxim Dmitrievsky:

да не работает это так

убери фичи с низким импортансом из модели и сломай её, потом сравни ж.. с пальцем (другими фичами), и так по кругу

Удаление по 1 тоже пробовал. Удаляет. Когда много мусора модель почти не замечает потери бойца)
Причина обращения: