Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 2745

[Удален]  
Чем это отличается от LDA? На котировках получается жесткая подгонка, не работающая на новых данных. Но снижает ошибку обученной на этом модели почти до нуля. Аналогичная ситуация может возникнуть с подходом Саныча. Принцип то один и тот же - подогнать мух под котлеты

Но в скользящем окне должно привносить немного радости, если по нему статистику собирать. Не могу пока представить.
 

Какой-то всплеск постов!


Еще раз.

Я ранжирую предикторы по ПРЕДСКАЗАТЕЛЬНОЙ СПОСОБНОСТИ.

Использую собственный алгоритм, так как алгоритмы из многочисленных пакетов слишком медленные - мой менее точный, но очень быстрый.

Предсказательная способность - это НЕ корреляция и НЕ результат выбора предикторов, которые дают модели.

Предсказательная способность - это информационная связь, а НЕ: 

1. Корреляция - это "похожесть" одного стационарного ряда на другой, причем всегда есть некая величина, а значения "связь отсутствует" нет. Корреляция всегда имеет некое значение, поэтому с помощью корреляции запросто можно найти связь между учителем и кофейной гущей.  

2. Фиче селекшин - это частота использования фич при построении моделей. Если взять предикторы, не имеющие отношения к учителю, то все равно получим ранжирование фич.

Аналогом моего понимания "предсказательной способности является например caret::classDist(), который определяет расстояния выборок Mahalanobis для каждого класса центров тяжести. Или woeBinning. Подходов много и много пакетов в  R. Есть еще на основе теории информации.

 
JeeyCi #:

вот и проверяйте прежде

Что проверять? есть ли у тебя ротация ?? 

Это уже даже не смешно..

 
Maxim Dmitrievsky #:
Подытоживая теорию Саныча (поскольку он сам не смог нормально формализовать и привести примеры):

*его способ отбора признаков основан на корреляции, поскольку «отношение» и «связь» это определения корреляции.

*таким способом делаем неявную подгонку под историю, похоже по смыслу на LDA (линейный дискриминантный анализ) или PCA, упрощаем процесс обучения, снижаем ошибку

*нет никакой даже теории, что обученная модель при этом должна работать лучше на новых данных (не участвовавших в оценке связей фичей с целевыми), потому что признаки были перед этим подогнаны под трейн или (что хуже) подо всю доступную историю

*ситуацию немного выправляет усреднение КК в скользящем окне, типа можно оценить разброс и выбрать более стабильные. Хоть какая-то статистика, на которую можно опереться

*под отношением я понимал причинность или статистически значимую связь, но в его подходе это не так

Совершенно все неверно

1. Выше написал о своем понимании "предсказательная способность"

2. Смыл не понят

3. Нет трейна в обычном понимании. Подгонка случайного леса. Объем выборки = 1500 бар, количество деревьев=150. Размер выборки подобран по графику ошибки подгонки. На этой выборке из 170 предикторов делается   селекция и препроцессинг предикторов по разным критериям. В конечном итоге из 20-30 оставшихся предикторов по максимуму предсказательной способности отбирается от 5 до 10 предикторов, на которых подгоняется модель. По полученной модели предсказывается следующий бар. С приходом нового бара повторяется весь процесс построения модели.

Максимальная ошибка подгонки около 20%, но достаточно редко. Обычно около 10%. 

4. Свой подход описал ранее.

 
СанСаныч Фоменко #:

Еще раз.

но целевая не зигзаг же?

[Удален]  
СанСаныч Фоменко #:

Совершенно все неверно

1. Выше написал о своем понимании "предсказательная способность"

2. Смыл не понят

3. Нет трейна в обычном понимании. Подгонка случайного леса. Объем выборки = 1500 бар, количество деревьев=150. Размер выборки подобран по графику ошибки подгонки. На этой выборке из 170 предикторов делается   селекция и препроцессинг предикторов по разным критериям. В конечном итоге из 20-30 оставшихся предикторов по максимуму предсказательной способности отбирается от 5 до 10 предикторов, на которых подгоняется модель. По полученной модели предсказывается следующий бар. С приходом нового бара повторяется весь процесс построения модели.

Максимальная ошибка подгонки около 20%, но достаточно редко. Обычно около 10%. 

4. Свой подход описал ранее.

Так понятней. А целевые откуда берутся, по результатам кластеризации?
 

Уверенность, что будущие результаты будут такими же приличными, вытекает из статистики предсказательной способности, которая:

1. должна иметь достаточно высокое СРЕДНЕЕ значение

2. низкое значение  sd. 

Как обычно, если удается найти предикторы, имеющие sd менее 10%, то и вариации ошибки предсказания будут примерно такими же.


Мой вывод:

1. Надо взять (или разработать) один из алгоритмов "предсказательной способности"

2. Найти перечень предикторов, значения предсказательной способности различают в разы

3. Прогнать окно и получить статистику: среднее и отклонение от средней. Если повезет, то найдете такой перечень. Я нашел. 

Модель не имеет значения. На моих предикторах RF, ada, GBM,  GLM дают примерно одинаковый результат. Чуть хуже SVM. Совсем плохо nnet. 


Весь успех находится в предикторах и их препроцессинга. А вы тут чепухой занимаетесь! 

 
Maxim Dmitrievsky #:
Так понятней. А целевые откуда берутся, по результатам кластеризации?

У меня знак обычных приращений. 

Целевая вторична. Проблема целевой в предикторах: можно подобрать к конкретной целевой предикторы или нет. 

[Удален]  
СанСаныч Фоменко #:

У меня знак обычных приращений. 

Целевая вторична. Проблема целевой в предикторах: можно подобрать к конкретной целевой предикторы или нет. 

Я на этапе разметки целевых подгоняю их к одному или нескольким признакам, через корреляцию или хоть махаланобиса можно. Т.е. можно сделать любой информативный сет

Тема со скользящим окном понятна теперь, просто переобучается модель и перевыбираются признаки

Я бы просто посчитал по ним статистику в скользящем окне и выбрал оптимальные, чтобы не переобуваться на каждом баре 
 
СанСаныч Фоменко #:

Какой-то всплеск постов!


Еще раз.

Я ранжирую предикторы по ПРЕДСКАЗАТЕЛЬНОЙ СПОСОБНОСТИ.

Использую собственный алгоритм, так как алгоритмы из многочисленных пакетов слишком медленные - мой менее точный, но очень быстрый.

Предсказательная способность - это НЕ корреляция и НЕ результат выбора предикторов, которые дают модели.

Предсказательная способность - это информационная связь, а НЕ: 

1. Корреляция - это "похожесть" одного стационарного ряда на другой, причем всегда есть некая величина, а значения "связь отсутствует" нет. Корреляция всегда имеет некое значение, поэтому с помощью корреляции запросто можно найти связь между учителем и кофейной гущей.  

2. Фиче селекшин - это частота использования фич при построении моделей. Если взять предикторы, не имеющие отношения к учителю, то все равно получим ранжирование фич.

Аналогом моего понимания "предсказательной способности является например caret::classDist(), который определяет расстояния выборок Mahalanobis для каждого класса центров тяжести. Или woeBinning. Подходов много и много пакетов в  R. Есть еще на основе теории информации.

Все равно не догоняю. Это не корреляция и не частота использования. Как оценивается предск.сп. при обучении или чем оценивается?
Или это некий равновесный показатель, который так назван?
ЗЫ.  Прочитал далее, стало понятнее.