Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2745

 
Чем это отличается от LDA? На котировках получается жесткая подгонка, не работающая на новых данных. Но снижает ошибку обученной на этом модели почти до нуля. Аналогичная ситуация может возникнуть с подходом Саныча. Принцип то один и тот же - подогнать мух под котлеты

Но в скользящем окне должно привносить немного радости, если по нему статистику собирать. Не могу пока представить.
 

Какой-то всплеск постов!


Еще раз.

Я ранжирую предикторы по ПРЕДСКАЗАТЕЛЬНОЙ СПОСОБНОСТИ.

Использую собственный алгоритм, так как алгоритмы из многочисленных пакетов слишком медленные - мой менее точный, но очень быстрый.

Предсказательная способность - это НЕ корреляция и НЕ результат выбора предикторов, которые дают модели.

Предсказательная способность - это информационная связь, а НЕ: 

1. Корреляция - это "похожесть" одного стационарного ряда на другой, причем всегда есть некая величина, а значения "связь отсутствует" нет. Корреляция всегда имеет некое значение, поэтому с помощью корреляции запросто можно найти связь между учителем и кофейной гущей.  

2. Фиче селекшин - это частота использования фич при построении моделей. Если взять предикторы, не имеющие отношения к учителю, то все равно получим ранжирование фич.

Аналогом моего понимания "предсказательной способности является например caret::classDist(), который определяет расстояния выборок Mahalanobis для каждого класса центров тяжести. Или woeBinning. Подходов много и много пакетов в  R. Есть еще на основе теории информации.

 
JeeyCi #:

вот и проверяйте прежде

Что проверять? есть ли у тебя ротация ?? 

Это уже даже не смешно..

 
Maxim Dmitrievsky #:
Подытоживая теорию Саныча (поскольку он сам не смог нормально формализовать и привести примеры):

*его способ отбора признаков основан на корреляции, поскольку «отношение» и «связь» это определения корреляции.

*таким способом делаем неявную подгонку под историю, похоже по смыслу на LDA (линейный дискриминантный анализ) или PCA, упрощаем процесс обучения, снижаем ошибку

*нет никакой даже теории, что обученная модель при этом должна работать лучше на новых данных (не участвовавших в оценке связей фичей с целевыми), потому что признаки были перед этим подогнаны под трейн или (что хуже) подо всю доступную историю

*ситуацию немного выправляет усреднение КК в скользящем окне, типа можно оценить разброс и выбрать более стабильные. Хоть какая-то статистика, на которую можно опереться

*под отношением я понимал причинность или статистически значимую связь, но в его подходе это не так

Совершенно все неверно

1. Выше написал о своем понимании "предсказательная способность"

2. Смыл не понят

3. Нет трейна в обычном понимании. Подгонка случайного леса. Объем выборки = 1500 бар, количество деревьев=150. Размер выборки подобран по графику ошибки подгонки. На этой выборке из 170 предикторов делается   селекция и препроцессинг предикторов по разным критериям. В конечном итоге из 20-30 оставшихся предикторов по максимуму предсказательной способности отбирается от 5 до 10 предикторов, на которых подгоняется модель. По полученной модели предсказывается следующий бар. С приходом нового бара повторяется весь процесс построения модели.

Максимальная ошибка подгонки около 20%, но достаточно редко. Обычно около 10%. 

4. Свой подход описал ранее.

 
СанСаныч Фоменко #:

Еще раз.

но целевая не зигзаг же?

 
СанСаныч Фоменко #:

Совершенно все неверно

1. Выше написал о своем понимании "предсказательная способность"

2. Смыл не понят

3. Нет трейна в обычном понимании. Подгонка случайного леса. Объем выборки = 1500 бар, количество деревьев=150. Размер выборки подобран по графику ошибки подгонки. На этой выборке из 170 предикторов делается   селекция и препроцессинг предикторов по разным критериям. В конечном итоге из 20-30 оставшихся предикторов по максимуму предсказательной способности отбирается от 5 до 10 предикторов, на которых подгоняется модель. По полученной модели предсказывается следующий бар. С приходом нового бара повторяется весь процесс построения модели.

Максимальная ошибка подгонки около 20%, но достаточно редко. Обычно около 10%. 

4. Свой подход описал ранее.

Так понятней. А целевые откуда берутся, по результатам кластеризации?
 

Уверенность, что будущие результаты будут такими же приличными, вытекает из статистики предсказательной способности, которая:

1. должна иметь достаточно высокое СРЕДНЕЕ значение

2. низкое значение  sd. 

Как обычно, если удается найти предикторы, имеющие sd менее 10%, то и вариации ошибки предсказания будут примерно такими же.


Мой вывод:

1. Надо взять (или разработать) один из алгоритмов "предсказательной способности"

2. Найти перечень предикторов, значения предсказательной способности различают в разы

3. Прогнать окно и получить статистику: среднее и отклонение от средней. Если повезет, то найдете такой перечень. Я нашел. 

Модель не имеет значения. На моих предикторах RF, ada, GBM,  GLM дают примерно одинаковый результат. Чуть хуже SVM. Совсем плохо nnet. 


Весь успех находится в предикторах и их препроцессинга. А вы тут чепухой занимаетесь! 

 
Maxim Dmitrievsky #:
Так понятней. А целевые откуда берутся, по результатам кластеризации?

У меня знак обычных приращений. 

Целевая вторична. Проблема целевой в предикторах: можно подобрать к конкретной целевой предикторы или нет. 

 
СанСаныч Фоменко #:

У меня знак обычных приращений. 

Целевая вторична. Проблема целевой в предикторах: можно подобрать к конкретной целевой предикторы или нет. 

Я на этапе разметки целевых подгоняю их к одному или нескольким признакам, через корреляцию или хоть махаланобиса можно. Т.е. можно сделать любой информативный сет

Тема со скользящим окном понятна теперь, просто переобучается модель и перевыбираются признаки

Я бы просто посчитал по ним статистику в скользящем окне и выбрал оптимальные, чтобы не переобуваться на каждом баре 
 
СанСаныч Фоменко #:

Какой-то всплеск постов!


Еще раз.

Я ранжирую предикторы по ПРЕДСКАЗАТЕЛЬНОЙ СПОСОБНОСТИ.

Использую собственный алгоритм, так как алгоритмы из многочисленных пакетов слишком медленные - мой менее точный, но очень быстрый.

Предсказательная способность - это НЕ корреляция и НЕ результат выбора предикторов, которые дают модели.

Предсказательная способность - это информационная связь, а НЕ: 

1. Корреляция - это "похожесть" одного стационарного ряда на другой, причем всегда есть некая величина, а значения "связь отсутствует" нет. Корреляция всегда имеет некое значение, поэтому с помощью корреляции запросто можно найти связь между учителем и кофейной гущей.  

2. Фиче селекшин - это частота использования фич при построении моделей. Если взять предикторы, не имеющие отношения к учителю, то все равно получим ранжирование фич.

Аналогом моего понимания "предсказательной способности является например caret::classDist(), который определяет расстояния выборок Mahalanobis для каждого класса центров тяжести. Или woeBinning. Подходов много и много пакетов в  R. Есть еще на основе теории информации.

Все равно не догоняю. Это не корреляция и не частота использования. Как оценивается предск.сп. при обучении или чем оценивается?
Или это некий равновесный показатель, который так назван?
ЗЫ.  Прочитал далее, стало понятнее.