Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3021

 
Maxim Dmitrievsky #:
Ты же залетел нормально с ноги с деревянными правилами вчера или когда там, че началось то опять фэфэ мэмэ

это называеться разностороннее развитие

 
mytarmailS #:

это называеться разностороннее развитие

Не надо нам такого развития, даешь гараж с лексусами 
 
Maxim Dmitrievsky #:
Не надо нам такого развития, даешь гараж с лексусами 

без понимания что такое рынок, не будет даже пачки макарон

 
mytarmailS #:

без понимания что такое рынок, не будет даже пачки макарон

Вот ФФ это гараж с лексусами, не знаю как еще объяснить 
 
Maxim Dmitrievsky #:
Вот ФФ это гараж с лексусами, не знаю как еще объяснить 

мне точно не надо обьяснять) я уже взрослый мальчик..

у тебя одно мнение у меня другое..

мое мнение это мой опыт, просто словами его не изменить

 
mytarmailS #:

мне точно не надо обьяснять) я уже взрослый мальчик..

у тебя одно мнение у меня другое..

мое мнение это мой опыт, просто словами его не изменить

Печалька в том, что это не мнение, а факт.
Можешь нарисовать черта лысого вместо ФФ и под него подгонять 
 
Maxim Dmitrievsky #:
Печалька в том, что это не мнение, а факт.
Можешь нарисовать черта лысого вместо ФФ и под него подгонять 

ты даже не понимаешь какую ты дурь сейчас несешь))

Как будто оптимизатор в мт , это не оптимизатор  и оптимизирует он не ФФ 

 
mytarmailS #:

ты даже не понимаешь какую ты дурь сейчас несешь))

Как будто оптимизатор в мт , это не оптимизатор  и оптимизирует он не ФФ 

При чем тут мт? Оптимизация производства слышал? Когда у тебя реальные взаимозависимые процессы, но нужно повысить эффективность 

То же самое с оптимизацией сл/тп для готовой модели.

А ты из мусорной кучи создаешь черта лысого через ФФ. 

Вот реально давай закончим, бред какой-то, как со школьником общаюсь.
 

наконец то вышла книга по TORCH для R

если есть будущие умельцы по ДЛ то вперед

 
Rorschach #:

Такой подход пробовали? (найдите раздел Model Interpretation примерно в середине страницы)

Спасибо за ссылку - очень будет полезно, когда я наконец начну эксперименты на питоне!

Я так понял, это какой то новый стиль изложения книги? Есть ли остальной материал?

Если отвечать на вопрос - то когда занимался отбором листьев, то ничего не использовалось напрямую.

С лесом из деревьев решений я не работал, поэтому ряд методик не использовал в принципе, как это предполагается. Однако использовал нечто похожее, к примеру оценку разброса ошибки конкретного листа использовал для определения веса листа в ансамбле.

Важность предикторов по оценке сплитов имеется и в CatBoost, но в градиентном бустинге нужно корректировать понимание показателей, так как деревья зависимы и последовательны. Сам показатель довольно спорный, так как оценивает построение деревьев, а принцип жадности не для всех данных работает хорошо. Однако, я использовал усреднение показателей от ста моделей на 8 интервалах выборки для отбора предикторов для моделей CatBoost - в среднем такой метод улучшал результаты обучения. Эксперимент детально публиковался в этой ветке.

Частотную корреляцию не пробовал в предложенном исполнении - изобрел свой метод группировки бинарных предикторов  и листьев, который так же позволяет отбросить слишком похожие бинарные предикторы и листья. Думаю, что реализация на питоне должна работать быстрей, так как мой алгоритм не оптимален - следует сравнить для понимания.

Идея выделения сильно изменившихся предикторов кажется занятной, надо попробовать. Но фактически в эксперименте, что описал выше, я это делал просто не беря такие предикторы для окончательного обучения. Тут бы понять, как лучше детектировать склонность переменной к изменениям по её историческому поведению, а так же момент, когда колебания стали необратимо переходить в смену среднего диапазона распределения вероятности по предиктору. На бумаге есть идеи - надо кодировать.

Оценка вклада каждого предиктора в решение для конкретной строки в виде визуализации занятна, но для большого числа предикторов модели мало эффективна. Однако, я делал подобное - здесь в теме выкладывал кластер такой - где цветом выделял значимость ответа лита и сколько листов в модели использовалось для предсказания каждой строки. Выяснилось, что большая часть листьев перестаёт активироваться в модели, т.е. закономерности перестают вообще встречаться - об этом мало кто вообще задумывается.

Какие то идеи, озвученные там пропустил? Если да, то напишите конкретно - опишу использовал или нет.

Я там не понял про идею кодирования категориальных признаков для использования в нейросети - идет отсылка на прошлый материал.