Машинное обучение в трейдинге: теория, модели, практика и алготорговля - страница 407

 

Наконецто посчиталась модель, добавил её к существующей. Прибыльность выросла до не бес, на том же участке вне выборки прибыльность 12.65

Правда нагрузка на депозит оказывается не маленькая, но выдерживаемая, так что как то так. Запустил на оптимизацию пример изпервого поста, но если быстро не посчитает, особо машину насиловать не буду. Там хоть и столбцов мало, но уж больно много строк, так что посмотрим, что да как...

вот отчёт. Соотношение сделок вполне интересное, правда вот просабочка великовата.... ну тут как говорится дело вкуса...


 
Mihail Marchukajtes:

Наконецто посчиталась модель, добавил её к существующей. Прибыльность выросла до не бес, на том же участке вне выборки прибыльность 12.65

Правда нагрузка на депозит оказывается не маленькая, но выдерживаемая, так что как то так. Запустил на оптимизацию пример изпервого поста, но если быстро не посчитает, особо машину насиловать не буду. Там хоть и столбцов мало, но уж больно много строк, так что посмотрим, что да как...



Попробуй выжать больше сделок, для оценки результата.. Чем больше их тем быстрее можно понять в реальной торговле когда модель стоит переобучить. Например, я сейчас оцениваю так - по результатам тестирования макс убыточная серия 2 сделки, если на реале будет 4 убытка подряд то нужно переобучать. В день, в среднем, получается 400/60 = 6-7 сделок, т.е. в течение всего 1-го дня можно понять стоит-ли переобучить.

У меня пока так, 400 сделок за 3 мес 15 мин тф. Обучающая выборка 1 мес (посередине), справа и слева по месяцу аут оф сэмпл. Лот специально задрал для красоты. Начальный баланс 1000$ :) Пока не сделал автопереобучение что бы сразу прогонять за всю историю, для этого нужно портировать Jпредиктор или юзать другую нейросеть, т.к. веса сейчас через оптимизатор подбираются.

Ну и видно, что прибыльных трейдов 90%, но зато средний убыточный трейд больше, потому что средний стоплосс получается больше чем средний тэйкпофит. Максимальная прибыльная серия 33 профита подряд, против всего 2-х лоссов подря, но суммарный профит по 33 сделкам всего в 4 раза больше чем суммарный лосс по 2-м сделкам (нужно укорачивать стоплосс). В феврале уже не зарабатывает с такими настройками.


 
Если до вечера не посчитает пример из первого поста, ТО вырублю. Тем более что сама задача бесмысленна и не имеет практического интереса. А гонять комп несколько суток ради прикола, как то не хочется. Ресурс всётаки...
 
Mihail Marchukajtes:
Если до вечера не посчитает пример из первого поста, ТО вырублю. Тем более что сама задача бесмысленна и не имеет практического интереса. А гонять комп несколько суток ради прикола, как то не хочется. Ресурс всётаки...

У вас будет проверка на валидационном или тестовом участке? Если считаете на полном файле, то можно будет проверить на валидационном файле из поста https://www.mql5.com/ru/forum/86386/page4#comment_2530392
Я немного поэксперементировал с RNN и похоже, что она просто запоминает примеры обучения (важные в связке с шумовыми предикторами), а на новых данных шумовые предикторы портят результат. Т.е. RNN склонна к переобучению. По крайней мере для логических задач, где 0 и 1.

Но не исключено, что средние значения между 0 и 1 она будет неплохо интерполировать.

Машинное обучение: теория и практика (торговля и не только)
Машинное обучение: теория и практика (торговля и не только)
  • 2016.05.28
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
elibrarius:

У вас будет проверка на валидационном или тестовом участке? Если считаете на полном файле, то можно будет проверить на валидационном файле из поста https://www.mql5.com/ru/forum/86386/page4#comment_2530392
Я немного поэксперементировал с RNN и похоже, что она просто запоминает примеры обучения (важные в связке с шумовыми предикторами), а на новых данных шумовые предикторы портят результат. Т.е. RNN склонна к переобучению. По крайней мере для логических задач, где 0 и 1.

Но не исключено, что средние значения между 0 и 1 она будет неплохо интерполировать.


Я запустил полностью весь файл, увидим результат обучения, я потом модель скину сюда, а вы уж сами её потом проверьте на валидацию.... Как то так...
 
Но самое интереснео будет то что сейчас начнётся другой контракт и интересно будет посмотреть как буцдет работать модель обученная на предыдущем контракте. Так что посмотрим.....
 
elibrarius:

У вас будет проверка на валидационном или тестовом участке? Если считаете на полном файле, то можно будет проверить на валидационном файле из поста https://www.mql5.com/ru/forum/86386/page4#comment_2530392
Я немного поэксперементировал с RNN и похоже, что она просто запоминает примеры обучения (важные в связке с шумовыми предикторами), а на новых данных шумовые предикторы портят результат. Т.е. RNN склонна к переобучению. По крайней мере для логических задач, где 0 и 1.

Но не исключено, что средние значения между 0 и 1 она будет неплохо интерполировать.


Что вы называете переобучением? и как вы определяете какие предикторы шумовые а какие нет? Почему вы считаете, что шумовые предикторы портят результат, а не важные перестали работать? На рынке едва-ли можно найти важные предикторы, которые будут работать вечно

с RNN вообще специфически нужно работать - делать стационарный ряд и брать сигналы с экстремумов, в надежде на разворот

ведь любое обучение это суть подгонка, хоть и с нелинейным смыслом каким-то..

 
Maxim Dmitrievsky:


А вы сравнивали результативность разных моделей МО, почему остановились именно на деревьях решений? У меня получается на них наименьшая ошибка, выше уже писал об этом

Деревья, как и другие МО имеют свои преимущества и недостатки, а остановился на этом методе применительно к задаче из первого поста, по принципу разумной достаточности, он точный и бысрый как в результирующем коде, так и в рекурсивной генерации.

Хотя, что бы не нарываться на троллинг в этой ветке, похоже надо было зарэндомить изрядный лес каким нибудь бутстрепом или бесконечно усовершенствовать деревья, каким нибудь бустингом, а каждый шаг всё описывать и описывать...)

 
Vasily Perepelkin:
Пытаюсь образумить Вас и других заблудших
Решения принимает мужчина, а не деревья, бросайте баловаться.
 
Vasily Perepelkin:
Решения принимает мужчина, а не деревья, бросайте баловаться.
Я с Вами согласен, но не полностью.
Мужчина должен оценивать обстановку и разбираться в среде в которой живет он и его семья.
Сейчас мир развивается очень быстро, и информационная среда, большое поле в котором можно найти кого угодно.
Вы таким подходом просто напросто отрубаете часть стратегического обзора и теряете картину происходящего, что подвергает Вас как мужчину-защитника неоправданному риску.
Причина обращения: