Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 695

 
elibrarius:

Я вот над регрессией задумался....
Регрессия на фин. рынках скорее не гладкая функция, а ступенчатая с шагом в 1 пт. (и для учителя и для прогноза). Если например ограничиться движением в +/- 100 пт., то тогда прослеживается аналогия с классификацией, на 200 классов. Т.е. на выходе мы предсказываем наиболее вероятный класс - например +22 пт.
Не означает ли это, что для хороших результатов структура/сложность модели (число нейронов) для регрессии должна быть в 200 раз больше? Ну если увеличить шаг до 5 пт, то в 40 раз - чуть поэкономнее будет за счет меньшей точности.

Нет идей на эту тему?
 
elibrarius:
Нет идей на эту тему?

не получится делать регрессию на цены, делайте на приращения, тогда и кол-во вариантов будет меньше

нейронов больше не надо, их вообще по сути много не надо для регрессии.. в линейной регрессии вон вообще по 1 коэффициенту на каждую фичу :)

 
Maxim Dmitrievsky:

не получится делать регрессию на цены, делайте на приращения, тогда и кол-во вариантов будет меньше

нейронов больше не надо, их вообще по сути много не надо для регрессии.. в линейной регрессии вон вообще по 1 коэффициенту на каждую фичу :)

приращение и имеется в виду под движением +/- 100 пт., а не цены.

Ну аналогия то с 200 классами прямая ведь... хотя они идут последовательно и все же могут быть сглажены из ступенчатой в гладкую функцию

 
elibrarius:

приращение и имеется в виду под движением +/- 100 пт.

Ну аналогия то с 200 классами прямая ведь...

ну в классы то тоже не одно значение попадает на выходе, просто разделяется через сигмоид

 
elibrarius:
Нет идей на эту тему?

Для классификации на 200 классов нужно 200 нейронов на выходе, и соответственно много нейронов во внутренних слоях чтобы это всё как-то заставить работать.

А для регрессии нужен всего 1 нейрон на выходе, какое значение он выведет - это и будет проноз, "+22п, плюсминус погрешность". И скрытых нейронов наверное хватит поменьше.
Учитель будет дискретным, с числом знаком как у символа. Но прогноз - обычное неприрывное double число с 16 знаками, и поэтому функция оценки (mean square error например) тоже будет непрерывной.

 
СанСаныч Фоменко:

Любопытная статья по исследованию восьми моделей машинного обучения

Неприятно что авторы статьи взяли искусственные цены вместо цены на нефть например. Результаты получились для идеальных условий, и непонятно будут ли они применимы для реальной торговли.

 
Mihail Marchukajtes:

Сегодня прям день Граалей, но мы то знаем как он выглядет и скольких трудов стоит чтобы держать его в руках!!!!

Не побоюсь этого слова, но сегодня я нашёл грааль для себя. Провёл неоднократные тесты и результаты меня просто паразили. Особая благодарность Dr. Trader за оказанную поддержку которая собственно и привела к открытию. Не побоюсь этого слова........ С помощью R удалось эффективно находить набор вахных предикторов, а с учётом того что целевая имеет одинаковое количество классов, то подыграв её немного (прибавив или удалив единичку) набор важных предикторов можно расширить на один, два столбца. Один раз попробовал и прям так нормально добавилось их. Далее начинаем оптить и выбираем модель с максимальными показателями результата обучения.


 Смущает конечно не великий размер полинома, но и проработает он в теории 50% интервала обучения, то бишь неделю, а мне и этого достаточно!!!!!! Но вот ведь какая штука.... И я сейчас обращаюсь здесь к тем людям, которые ищют надёжные и стабильные закономерности. Проще объяснить на примере.........

Я сохраняю таблицу данных в размере 1000 строк и 111 столбцов, где 110 предикторов и соотвественно выход. НО я не беру всю таблицу, а беру небольшой свежий участок в размере 40 записей (это 2 недели работы ТС примерно) В итоге имею обучающий набор размера 40 на 110 плюс целевая. По сути я беру срез рынка именно в этот день именно на этом интервале. Этот срез стационарен. Далее не без помощи выдающегося гения своего дела мистера Dr. Trader в среде програмирования R произвожу выбор значимых входных переменных по отношению к выходу и получаю от 3 до 5 столбцов в которых, я так понимаю, есть та самая пресловутая альфа позволяющая иметь преимущество перед другими участниками рынка. А теперь самое главное.... К чему собственно был весь этот базар. Стоит мне добавить ещё одну строчку в таблицу данных для обучения, как набор столбцов резко изменится, то есть альфа убежит в другой набор столбцов. Может быть и не сразу, а после добавления не одной, а нескольких строчек. Тобишь сигналов ТС!!!! Альфа это как раз таки та самая закономерность в чистом виде которая минимальна и достаточна для целевой функции. НО эта закономерность в не явном виде, тоесть увидеть её не вооружоным глазом крайне сложно. Именно на этом этапе и подключается ИИ и делает свою работу.

А теперь представьте как может скакать альфа на всем поле данных которое я выгружаю, если она редко содержится более чем в пяти входах, а общее поле 110 входов. Другими словами, при каждом новом срезе я получаю совершенно разные наборы предикторов. И как Вы хотите за ней угнатся да ещё и на дистанции в ГОДА!!!!!!! если её тут на недели то хрен словишь нормально....... Но Вы абсалютно правы Грааль существует, только у каждого он свой и для того чтобы его держать нужно парой прилагать не малые усилия.......

И опять же обращаясь к теоретикам демо счетов, делается это вот как.......

Я проработал теорию и сделал по ней коекакие тесты. Тесты показали хороший результат. Модели обучены ВПС-ка с роботом заряжена. Следите за моим сигналом на этой неделе и сразу будет видно чего стоит мои предположения.

Не понимаю в чём проблема, кластеризуете бары (ну чтоб сравнивать было надёжно), строите статистику повторения какого либо элемента, можно начинать с наиболее встречающегося. Затем строите статистику повторений в паре с другим элементом (лучше вторым из статистики, хотя всё равно придётся проверит все), выбираете максимальную статистику наносите на график вторую точку, и так далее. Как только график покажет перегиб это и есть оптимальная длинна для этого слова. И так проверяете все буквы.

Получите набор слов, из которых уже будете складывать предложения, вот к словам уже можно применять НС только предварительно стоит словам присвоить кодировку по степени близости к друг другу, хотя с этим справиться и НС, есть же автоэнкодеры в конце концов. Ну кароч на этом этапе есть свобода для полёта фантазии.

 

Может кто-нибудь проверить индикатор приращений? почему-то на низких ТФ происходят дыры в отрисовке, и не только, если перематывать назад.. окно индикатора становится пустым. Или мне просто пора уже перустановить терминал

Файлы:
loglog.mq5  5 kb
 

так правильнее

       double pr2 = (pr!=0?log(pr):0);

 
Dr. Trader:

Неприятно что авторы статьи взяли искусственные цены вместо цены на нефть например. Результаты получились для идеальных условий, и непонятно будут ли они применимы для реальной торговли.

Сделано специально, чтобы покрыть теоретическое многообразие цен и явно назвать это многообразие.

Причина обращения: