Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3384

 
Maxim Dmitrievsky #:
Какой-то общий подход по отбору правил. Типа вот разбил дерево на правила, что потом.. в контексте ТС. Лучшие практики и инсайты. Было бы любопытно.

Только не случайные функции и рэндом волки, а ближе к профиту.

А не является "ближе к профиту" синонимом "переобучения"?
Получаем красивый ровненьний баланс на случайном профите, так как в основе лежит случайная величина приращения. А откуда красота баланса?

Баланс - это оценка ТС в терминале, где на этот баланс оказывает влияние не только ошибка классификации.

А вот если остаемся в рамках МО, то оценка - это НЕ профит

 
СанСаныч Фоменко #:

А не является "ближе к профиту" синонимом "переобучения"?
Получаем красивый ровненьний баланс на случайном профите, так как в основе лежит случайная величина приращения. А откуда красота баланса?

Баланс - это оценка ТС в терминале, где на этот баланс оказывает влияние не только ошибка классификации.

А вот если остаемся в рамках МО, то оценка - это НЕ профит

Ближе к профиту - ближе к котировкам, а не обучение на всяком бессмысленном. Таких тестов в тырнете полно, и давно известны особенности разных МО. Что хуже и что лучше. 

Только не понимаю куда в иерархии вписывается извлечение правил.
 
Maxim Dmitrievsky #:
Ты же хотел статью по правилам, или перехотел уже? Тема интересная наверное, поинтереснее минимизации тестовых функций. Или проблемы с их валидацией на оос? Или нет проблем, а просто лень писать.
Да хз, по факту то и писать нечего.. 
Что напишу как разбить деревянную модель на правила, и что? 
По сути мой пост уже все показал. 

Или ты о моей старой писание? Если да то, в разбиении я супер целебных свойств не нашёл, есть плюшки которые не могут дать модели. 

1.  Можно сильно уменьшыть размерность модели



2.  Можно знать статистику по каждому правилу(это действительно важно) 

Например  есть у нас деревянная модель с 100 правилами и мы никогда не знаем сработало внутри 100 правил каждое по одному разу(нету закономерности)  или 10 правил сработало по 50 раз (есть закономерность) 
Вот если не разбить модель,  мы этого не узнаем и для нас обе модели будут одинаковы

 
mytarmailS #:
Да хз, по факту то и писать нечего.. 
Что напишу как разбить деревянную модель на правила, и что? 
По сути мой пост уже все показал. 

Или ты о моей старой писание? Если да то, в разбиении я супер целебных свойств не нашёл, есть плюшки которые не могут дать модели. 

1.  Можно сильно уменьшыть размерность модели



2.  Можно знать статистику по каждому правилу(это действительно важно) 

Например  есть у нас деревянная модель с 100 правилами и мы никогда не знаем сработало внутри 100 правил каждое по одному разу(нету закономерности)  или 10 правил сработало по 50 раз (есть закономерность) 
Вот если не разбить модель,  мы этого не узнаем и для нас обе модели будут одинаковы

Ну в деревьях обычно можно посчитать влияние каждого наблюдения каждого признака, его вклад в модель, например через shap values. Если оставить только полезные и обучить что-нибудь только на них, то получится приближенный аналог поиска правил. С нейронками, кстати, тоже можно.

Сложно понять, когда только правила могут быть единственно полезными. Может для интерпретируемости результата. Хотя shap values тоже дают хорошую интерпретируемость, вроде как.
 
Maxim Dmitrievsky #:
Ну в деревьях обычно можно посчитать влияние каждого наблюдения каждого признака, его вклад в модель, например через shap values. Если оставить только полезные и обучить что-нибудь только на них, то получится приближенный аналог поиска правил. С нейронками, кстати, тоже можно.

Сложно понять, когда только правила могут быть единственно полезными. Может для интерпретируемости результата. Хотя shap values тоже дают хорошую интерпретируемость, вроде как.
 Влияние каждого признака, влияние каждого наблюдения и влияние каждого правила, это все разное
 
mytarmailS #:
 Влияние каждого признака, влияние каждого наблюдения и влияние каждого правила, это все разное
Правила - элементы модели, связывающие признаки и метки. Единственное, что у нейросетей нет прерывности, но можно искусственно сделать.

К чему я это.. к тому, что не вижу особого смысла в правилах (многозначительно закурив трубку)
 
Maxim Dmitrievsky #:
Правила - элементы модели, связывающие признаки и метки. Единственное, что у нейросетей нет прерывности, но можно искусственно сделать.

К чему я это.. к тому, что не вижу особого смысла в правилах (многозначительно закурив трубку)

попробую из под хабаровска..


модель любая это некая сумма паттернов   , утрировано можно паттерн обозначить как ТС.


Прелставим что модель состоит из 100 ТС.


Может быть такое что в модели №1 100 ТС совершыли по одной сделке.

Может быть такое что в модели №2 одна ТС совершила 100 сделок, а остальные 99 не совершали ниодной.


 как посчитать статистику по каждой ТС ?

Если модель из правил, это сделать легко и понятно.

Если модель нейронка?

 
mytarmailS #:

попробую из под хабаровска..

Если модель нейронка?

/\
 !
 !

Вы с Санычем не в одной студии работаете?
Выбираешь примеры, которые хорошо предсказываются НС. Обучаешь только на них другую НС. Повторяешь несколько раз, по вкусу. После нескольких кругов у тебя получится НС с самыми лучшими «правилами».

Тоже легко и я бы не сказал, что непонятно. 
 
Maxim Dmitrievsky #:

Выбираешь примеры, которые хорошо предсказываются НС. Обучаешь только на них другую НС. Повторяешь несколько раз, по вкусу. После нескольких кругов у тебя получится НС с самыми лучшими «правилами».
Ну получили мы подвыборку на которой нейронка хорошо предсказывает.  Как ты узнаешь это один паттерн в этой подвыборке, два или двадцать? Ты реально не понимаешь разницы? 

 
mytarmailS #:
Ну получили мы подвыборку на которой нейронка хорошо предсказывает.  Как ты узнаешь это один паттерн в этой подвыборке, два или двадцать? Ты реально не понимаешь разницы? 

По количеству примеров оставшихся. Сколько примеров - столько паттернов жеж. Это приближенное правило, не говорю, что такое же как при строгом правиле. Но можно выборку разделять дальше, до полного так сказать разделения на каждый паттерн.
Причина обращения: