Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 3209

 
Maxim Dmitrievsky #:
Это меньшее из зол. Большее - что почти ничто оттуда вам не нужно, вроде бы доказано пакетчиками на протяжении многих лет.

В принципе, одного классификатора достаточно. Остальное - мракобесинг.

Я бы тоже проголосовал за отдельную бессмысленную тему для новичков 

Это проблема современного софта в целом - постоянные обновления ради обновлений и ломается то, что работало раньше. А люди не могут постоянно поддерживать свои творения, да и интерес ну и жизнь могут утрачивать....

Мне интересно проверять новые идеи - может там будет что-то упущенное мной. Иной подход. В любом случае, если уже есть закодированное решение, то проверить на нём, прежде чем свой код писать.

 

Maxim Dmitrievsky #:
Я тоже начинал с Ратла на Р с подачи Саныча и с прочтения статей Владимира.

Обычно оставалось больше вопросов, чем ответов :)

И ни к чему не привело в этом смысле.

Это как бы резюмируя для новичков, которых пытаются втянуть в эту секту слабоумия и отваги. Читать исключительно для расширения кругозора (если оно вам вообще нужно).

Я тоже начинал с ратла и "вырос" на статьях Владимира за что ему низкий поклон и благодарность! И считаю что нету на ресурсе более качественных статей.

И у меня были вопросы, но вопросы надо закрывать а не хлопать дверью..

А меня привело и я рад этому.

Вся ветка из активных иследователей рынка тут сидит на R, ето как бы резюмируя..

 
mytarmailS #:

Вся ветка из активных иследователей рынка тут сидит на R, ето как бы резюмируя..

Активных кого?) сначала должна исследовалка вырасти.
 

Выше упоминалась проблема, что имеется модель, имеющая прекрасные результаты на файле обучения и файле ООС. При этом я понимаю, что файл обучения может быть получен даже случайной выборкой по sample, а ООС остаток от файла обучения.

Но при прогоне модели на внешнем файле результат катастрофически плохой.

Вспомнил, имел такой вариант несколько лет назад.

Удалось найти причину. Причина эта - заглядывание вперед, крайне неудобная причина, так как крайне трудно понять в чем собственно состоит заглядывание вперед.

Тогда я юзам модель, в которой учитель - приращения ZZ, и очень много предикторов, в вычислении который участвовал ZZ. Например, разность цены и ZZ. При обучении просто отсекал кусок файла, в котором не было правых звеньев ZZ. А при вычислении предикторов недостающие значения ZZ продлевал последним звеном.

Три файла (это в Rattle), которые он дает случайной выборкой, давали ошибку классификации около 5%. Однако четвертый файл, который не имеет отношения к первым трем, давал произвольную ошибку.

Если же удалить все предикторы, в вычислении которых участвует ZZ, то все становится на свои места: ошибка классификации примерно равна на всех четырех файлах.

Это заглядывание вперед.

С переобучением понятно: крайне осторожно пользоваться оптимизацией в тестере, а в R чистить перечень предикторов от мусора. А как выявить заглядывание вперед?

Из прошлого опыта напрашивается следующее: если ошибка классификации на train, test и validation меньше 10%, то тупо поочередно выбрасывать предикторы пока ошибка не увеличится к 20% 30% ... 

 
ЗигЗаги надо строить на момент бара, а не в будущее.
 
Forester #:
ЗигЗаги надо строить на момент бара, а не в будущее.

Для обучения модели ZZ не продлевался, так как это не нужно: паттерн, который ищет модель - это одна строка - соседние не учитываются, а выборка для обучения 1500 бар.

 
Откуда вообще взялась эта дурь с зиг-загом, кто это первый придумал?

Саныч, ты когда запомнишь, что учитель - это целевая+фичи?)) а не одна целевая

А волатильность пишется без Н
 
СанСаныч Фоменко #:

Из прошлого опыта напрашивается следующее: если ошибка классификации на train, test и validation меньше 10%, то тупо поочередно выбрасывать предикторы пока ошибка не увеличится к 20% 30% ... 

Гениально)))))

Как же тогда найти реальные предикторы с ошибкой на меньше 10% ?

Только не надо говорить что таких нет, это вопрос веры..

 
Maxim Dmitrievsky #:
Откуда вообще взялась эта дурь с зиг-загом, кто это первый придумал?

Вам самому интересно или совсем не интересно писать по существу проблемы, а не демонстрировать себя любимого?

 
СанСаныч Фоменко #:

Удалось найти причину. Причина эта - заглядывание вперед, крайне неудобная причина, так как крайне трудно понять в чем собственно состоит заглядывание вперед.

Тогда я юзам модель, в которой учитель - приращения ZZ, и очень много предикторов, в вычислении который участвовал ZZ. Например, разность цены и ZZ. При обучении просто отсекал кусок файла, в котором не было правых звеньев ZZ. А при вычислении предикторов недостающие значения ZZ продлевал последним звеном.

Чтобы небыло заглядывания Форестер правильно говорит, надо вычислять в цикле на кадой итерации предикторы без заглядывания..

Вот и все решение..

Причина обращения: