Наверное, чем больше файл результата обучения, тем выше вероятность подгонки.
если выборка нерепрезентативная, а на форексе всегда так, то да. Уменьшить можно за счет уменьшения regularization, немного
также пока не раскрыт вопрос с перебором целевых, что в совокупности с перебором инпутов должно давать более интересный результат
если выборка нерепрезентативная, а на форексе всегда так, то да. Уменьшить можно за счет уменьшения regularization, немного
также пока не раскрыт вопрос с перебором целевых, что в совокупности с перебором инпутов должно давать более интересный результат
Чем ближе размер файла результата обучения к размеру истории цены, тем меньше нужно что-либо мудрить в модели.
Например, если learn-файл равен по размеру OHLC-файлу, то модель - сама история. Т.е. хорошо бы, чтобы learn-файл (используемая его часть) была на порядки меньше размера истории.
Чем ближе размер файла результата обучения к размеру истории цены, тем меньше нужно что-либо мудрить в модели.
Например, если learn-файл равен по размеру OHLC-файлу, то модель - сама история. Т.е. хорошо бы, чтобы lean-файл (используемая его часть) была на порядки меньше размера истории.
так сохраняется случайный лес, всегда большие файлы, их не уменьшить. Можно использовать линейную, тогда в файле будут только коэф-ты регрессии, и переобучение будет меньше.
просто был интерес юзать RF, изначально. Но что-то он слишком любит переобучаться при любых раскладах
так сохраняется случайный лес, всегда большие файлы, их не уменьшить. Можно использовать линейную, тогда в файле будут только коэф-ты регрессии, и переобучения будет меньше.
просто был интерес юзать RF, изначально. Но что-то он слишком любит переобучаться при любых раскладах
К тому, что хорошо бы сохранять только используемую на learn=false инфу. Если ее много, то работа почти впустую.
Как аналогия, сохранение BestInterval-данных. Если их мало - еще можно смотреть без приколов. Но если много - разве для картинок.
К тому, что хорошо бы сохранять только используемую на learn=false инфу. Если ее много, то работа почти впустую.
Как аналогия, сохранение BestInterval-данных. Если их мало - еще можно смотреть без приколов. Но если много - разве для картинок.
ну да, особенно если объясняющей инфы становится больше чем объясняемой - то это вообще прикол :)
позже предложу другие варианты либы еще
потестировал, впечатление неоднозначное, тестировал на кастомном графике сгенерированном по ф-ции Вейерштрасса по формуле
в теории на этом кастомном графике RandomForest долден был найти точки входов очень близкие к ЗигЗагу, ну или хотя бы вообще не иметь убыточных ордеров, на ТФ Н1 периодичность прослеживается явно, но RF вроде как и нашел эту закономерность, но и убыточные ордера присутствуют
тестировал ране в МТ4 на таких же данных старый советник GoldWarrior (на англ. форуме нашел) - советник по ЗигЗагу, в оптимизаторе МТ4 на всех ТФ до М15 четко находит закономерности и исключительно в + все ордера
тестировал индикаторный советник по пересечению линий регрессии (увы, под заказ делал, код не могу), и этот советник в оптимизаторе быстро находил закономерности на ф-ции Вейерштрасса
к чему эти примеры? - если примитивные методы могут найти закономерности, то машинное обучение тем более обязано все это найти.
при всем уважении, к автору, но сомнительный результат, вернее пример работы с RandomForest отличный. но есть еще куда приложить свои силы ;)
ЗЫ: обучал с 2000.01.01 по 2001.01.01 тестировал с 2001.01.01 по 2002.01.01
ЗЫ: скрипт для кастомного графика приатачил, библиотека Symbol в КБ
// CustomRatesReplace(WrstName,0,LONG_MAX,rates);
SymbDB.CloneRates(rates);
ага, спасибо!
20 минут топик с Вашей библиотекой перечитывал, но все равно не разобрался, не внимательный сегодня, да и цель была код автора потестировать, чтобы увидеть, что видит RandomForest
обновил свой скрипт и приатачил выше еще раз
потестировал, впечатление неоднозначное, тестировал на кастомном графике сгенерированном по ф-ции Вейерштрасса по формуле
в теории на этом кастомном графике RandomForest должен был найти точки входов очень близкие к ЗигЗагу, ну или хотя бы вообще не иметь убыточных ордеров, на ТФ Н1 периодичность прослеживается явно, но RF вроде как и нашел эту закономерность, но и убыточные ордера присутствуют
тестировал ране в МТ4 на таких же данных старый советник GoldWarrior (на англ. форуме нашел) - советник по ЗигЗагу, в оптимизаторе МТ4 на всех ТФ до М15 четко находит закономерности и исключительно в + все ордера
тестировал индикаторный советник по пересечению линий регрессии (увы, под заказ делал, код не могу), и этот советник в оптимизаторе быстро находил закономерности на ф-ции Вейерштрасса
к чему эти примеры? - если примитивные методы могут найти закономерности, то машинное обучение тем более обязано все это найти.
при всем уважении, к автору, но сомнительный результат, вернее пример работы с RandomForest отличный. но есть еще куда приложить свои силы ;)
ЗЫ: обучал с 2000.01.01 по 2001.01.01 тестировал с 2001.01.01 по 2002.01.01
ЗЫ: скрипт для кастомного графика приатачил, библиотека Symbol в КБ
нет, это сейчас так не работает. Он не ищет никакие гармонические паттерны. Выходы сэмплятся рэндомно и очень часто, и затем он пытается аппроксимировать политику наилучшим образом. Что бы он аппроксимирован какие-то паттерны то нужно сэмлить выходы по какой-то другой логике, может быть по тому же зигзагу.
Это все легко меняется в reward ф-ии. У мня просто нет сейчас столько времени что бы проводить сотни экспериментов. Может быть, можно как-то придумать через Оптимизатор.
В любом случае, нужно определить какой-то диапазон условий, среди которых будет искаться наилучший вариант. Потому что всего вариантов бесконечное кол-во.
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Вы принимаете политику сайта и условия использования
RL GMDH:
Библиотека по мотивам одноименной статьи "RANDOM DECISION FOREST В ОБУЧЕНИИ С ПОДКРЕПЛЕНИЕМ"
Автор: Maxim Dmitrievsky