Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 77

 
Очень хороший результат для R, учитывая что все остальные языки используют для множества разных целей, а R только для работы с данными.
 
Dr.Trader:
Очень хороший результат для R, учитывая что все остальные языки используют для множества разных целей, а R только для работы с данными.

Попробовали обучить на моих данных?

 

Я запустил на 5 суток эксперимент. Мучаю EURUSD только!

Сделал 99 тренировочных выборки примерно того размера, что выложил здесь. Все они уникальны, так как содержат прореженные по времени наблюдения. Обучаю на них модели и буду делать комитет из GBM-лесов. Уже есть интересные результаты на валидации, хотя прошел только 18 выборок за сутки. При этом я сделал валидацию в 2.5 раза больше и потом покажу зачем!

 

Как видите, в самой первой тренировочной выборке модель обучилась так, что на 400 К наблюдений в валидации получил МО 2.7 пункта (с учетом спреда).

 Ну еще есть 1, 1.5 пункта результаты, норм. Все это будет уложено в комитет потом и посмотрим какая картина наконец-то будет на валидации! Предчувствую оценку 4 или 4 + за домашнюю работу.

Дерзайте, господа. 

PS: данные для обучения - 99 выборок для диверсификации и комитетинга: https://drive.google.com/open?id=0B_Au3ANgcG7CNG5JT3R2UzI0UzQ 

 

Да, я попробовал, с первого раза не получилось. Для оценки модели я брал точность результата регрессии (требуемый результат шкалированный в [0;0.5;1] минус полученный результат, по модулю). Генетика нашла такой глобальный максимум с парой предикторов, при котором нейронке не хватает данных для обучения, поэтому она почти на всех данных возвращает 0.5 (соответсвие классу "не торговать"). В общем такая фитнесс функция совсем не подходит, сеть в итоге просто не торгует.

Сейчас второй эксперимент ещё в процессе обучения. Работаю по прежнему с 3 классами, но результат регрессии сразу округляю к уровням [0;0.5;1]. Оценка - точность классификации ([количество правильных ответов] / [общее количество]). По графику лучших фитнесс значений в генетике могу судить что результат будет близок к 33%, по сути тоже самое что рандом. Может немного выше если повезёт. Надо подождать ещё день или два пока генетика не упрётся в свой максимум, тогда смогу фронттест.

На моих предикторах у меня результат обычно лучше, я думаю что вам в эти данные нужно добавить больше индикаторов. Если ваш алгоритм может оценивать и отбрасывать предикторы, то чем больше изначально индикаторов добавите тем лучше.

 
Dr.Trader:

Да, я попробовал, с первого раза не получилось. Для оценки модели я брал точность результата регрессии (требуемый результат шкалированный в [0;0.5;1] минус полученный результат, по модулю). Генетика нашла такой глобальный максимум с парой предикторов, при котором нейронке не хватает данных для обучения, поэтому она почти на всех данных возвращает 0.5 (соответсвие классу "не торговать"). В общем такая фитнесс функция совсем не подходит, сеть в итоге просто не торгует.

Сейчас второй эксперимент ещё в процессе обучения. Работаю по прежнему с 3 классами, но результат регрессии сразу округляю к уровням [0;0.5;1]. Оценка - точность классификации ([количество правильных ответов] / [общее количество]). По графику лучших фитнесс значений в генетике могу судить что результат будет близок к 33%, по сути тоже самое что рандом. Может немного выше если повезёт. Надо подождать ещё день или два пока генетика не упрётся в свой максимум, тогда смогу фронттест.

На моих предикторах у меня результат обычно лучше, я думаю что вам в эти данные нужно добавить больше индикаторов. Если ваш алгоритм может оценивать и отбрасывать предикторы, то чем больше изначально индикаторов добавите тем лучше.

Спасибо. Репортуйте о результатах.

Про ваш и наш. Тут довольно предикторов. На мой вкус хватит. Просто у меня 5 пар и 10 лет на каждую. Тут понятно, что дольше и медленнее модель учится, чем для 1 пары и 2 годков. Но не значит хуже.
 
Всё пытаетесь построить грааль???? Ну ну......
 
Mihail Marchukajtes:
Всё пытаетесь построить грааль???? Ну ну......
кто то обещал на выходных объяснить свой грааль
 
Mihail Marchukajtes:
Всё пытаетесь построить грааль???? Ну ну......
Тролль, иди отседова.
 
Не, не ребята, система слилась, показывать даже нет смысла. Приношу извинения..... По поводу трактата о классификации, это да... можно.. но времени пока нет, как буду по свободней да нахлынет на меня творчество, обязательно отпишусь..... А так.....  
 
Mihail Marchukajtes:
Не, не ребята, система слилась, показывать даже нет смысла. Приношу извинения..... По поводу трактата о классификации, это да... можно.. но времени пока нет, как буду по свободней да нахлынет на меня творчество, обязательно отпишусь..... А так.....  

Интересно... Ты же писал что год уже успешно используешь свой алгоритм? Несколько часов назад написал "Всё пытаетесь построить грааль???? Ну ну......"  из чего следует что алгоритм работал еще пару часов назад и тут алгоритм слился????????????????????   как то не стыкуется твой рассказ ни разу.... 

  

Слушай если тебе есть что рассказать то напиши  мне лс, ведь я делал то же самое о чем ты писал, мне эта тема интересна 

 

Тут в теме были сообщения про RNeat, это нейронка с адаптивной топологией, где веса и связи нейронов формируются с помощью генетики.
Судя по описанию и простым тестам модель вполне хорошая. Но для форекса будет слабовата. Уже неделю держал запущенным обучение, предсказание купить/продать на следующий бар имея 400 предикторов.
Обучение модели слишком медленное, за неделю фитнесс модели почти вырос до всего 2%. Точность прогноза даже на тренировочных данных всего 55%, модель не успела эволюционировать к хорошей логике чтобы начать приносить профит.

Точность на валидационных данных (рандомные бары изъятые из тренировочных данных) немного лучше, но это скорее случайность чем заслуга модели.
Точность на фронттесте колеблется между 50% и 53%, и судя по графику это тоже случайность, а не заслуга модели. 
Чуда не произошло, полагаю модель за месяцы работы таки доэволюционирует к нужной логике, но при этом переобучится с плохими результатами на валидации, и к тому моменту уже устареет и нужно будет начинать всё сначала.
Эксперимент останавливаю, больше не вижу смысла продолжать.