Обсуждение статьи "Random Decision Forest в обучении с подкреплением" - страница 8

 
Evgeniy Scherbina:

Добрый день. Я одного не пойму, зачем нужно что-либо добавлять к Метатрейдеру в плане обучения нейронной сети?

Вот есть веса, их нужно оптимизировать с помощью механизма оптимизации в Метатрейдере. Неужели вы не думали, что разрабы Метатрейдера уже неплохо продвинулись в вопросе обучения сетей / оптимизации параметров?

Бай и селл осуществляются по правилам, которые определяются индикаторами. Нейронная сеть агрегирует "данные наблюдения" за этими индикаторами (количество пиков, высота пиков накануне сделки и т.д.), но не сами значения индикаторов, ибо это глупость. Проверить конфигурацию весов можно сразу по ходу обучения, например так: +1 если следующие 2 дня рынок пошел куда надо, и -1 если не туда. В конце каждая конфигурация весов имеет сумму. Так мы оптимизируем наилучшую конфигурацию весов по пользовательскому критерию (это такой параметр оптимизации, надо же все продумано?!).

Описанный пример занимает в коде 40-50 строк. Вот и вся нейронная сеть с обучением. И я возвращаюсь к своему изначальному вопросу: почему вы считаете, что придумав что-то сложное и малосразупонятное, вы стали ближе к святому граалю? Чем сложней и непонятней созданный мною черный ящик, тем больше мне это льстит, мол, какой же я умный?!

подрастешь - поймешь

хотя бы, для начала, почитай какие солверы используются в нейронных сетях, и почему никто не использует генетику для их обучения
 
Maxim Dmitrievsky:

подрастешь - поймешь

хотя бы, для начала, почитай какие солверы используются в нейронных сетях, и почему никто не использует генетику для их обучения
Я так и знал, что все дело в солверах
 
Evgeniy Scherbina:
Я так и знал, что все дело в солверах

даже при 50 интпутах и 2-слойной НС по 15 нейронов в слое, посчитай примерное кол-во весов. Через оптимизатор уже такой примитив будешь оптимизировать примерно вечность. А это еще весьма несложная конструкция.

Загони эти 50 инпутов в мой пример и обучишься мгновенно. Разница примерно в этом.

 
Maxim Dmitrievsky:

даже при 50 интпутах и 2-слойной НС по 15 нейронов в слое, посчитай примерное кол-во весов. Через оптимизатор уже такой примитив будешь оптимизировать примерно вечность. А это еще весьма несложная конструкция.

Загони эти 50 инпутов в мой пример и обучишься мгновенно. Разница примерно в этом.

Вот об этом и речь. Вы усложняете и считаете, что это верный путь. Это неверный путь. Сложнее не значит лучше.

У меня 4 входа, 3 нейрона, один слой - на каждый сигнал. Сигналов всего два, но для одного символа индивидуально. Символов много. Торговля в течение месяца после года обучения лучше с нейронной сетью, чем без нее. Вот результат! Открыл недавно, сижу дрожу от счастья и просматриваю, что еще понапридумывали. В ожидании подтверждения на реальной торговле.

 
Evgeniy Scherbina:

Вот об этом и речь. Вы усложняете и считаете, что это верный путь. Это неверный путь. Сложнее не значит лучше.

У меня 4 входа, 3 нейрона, один слой - на каждый сигнал. Сигналов всего два, но для одного символа индивидуально. Символов много. Торговля в течение месяца после года обучения лучше с нейронной сетью, чем без нее. Вот результат! Открыл недавно, сижу дрожу от счастья и просматриваю, что еще понапридумывали. В ожидании подтверждения на реальной торговле.

ничего не усложнено, это классическая модель МО

обучение через оптимизатор это еще бОльшая подгонка, потому что выбираете варианты которые вам понравятся и которые работают на форварде, из сотен и тысяч тех что не работают. Это ментальная ловушка, вам кажется что произошел процесс обучения - на самом деле процесс подгонки. Разделите кол-во работающих моделей на кол-во не работающих на форварде из всего списка оптимизации, и получите примерно вероятность того что что-то из отобранного будет работать в реале в дальнейшем. Обычно это 1-5% вероятность.

поэтому дрожать не нужно, это оверфит с вероятностью 99%

в любом случае: Удачи.
 
Maxim Dmitrievsky:

ничего не усложнено, это классическая модель МО

обучение через оптимизатор это еще бОльшая подгонка, потому что выбираете варианты которые вам понравятся и которые работают на форварде, из сотен и тысяч тех что не работают. Это ментальная ловушка, вам кажется что произошел процесс обучения - на самом деле процесс подгонки. Разделите кол-во работающих моделей на кол-во не работающих на форварде из всего списка оптимизации, и получите примерно вероятность того что что-то из отобранного будет работать в реале в дальнейшем. Обычно это 1-5% вероятность.

поэтому дрожать не нужно, это оверфит с вероятностью 99%

в любом случае: Удачи.

Не не не. Подгонки не было. Было обучение, не зависимое от следующего контрольного множества. Я выбирал разные периоды, и следующий месяц - это просто следующий месяц.  Я пробовал брать больше входных параметров, это не улучшает. В итоге я разделил сети. По-хорошему, в одной системе у меня их 3 (2 открытия + 1 закрытие), итого 11 входов. Так что я таки дрожу.

Другими словами, текущий месяц - это такое же контрольное множество, на котором я делал проверку в прошлом. Никакой подгонки под контрольный месяц не было.

 
Evgeniy Scherbina:
Не не не. Подгонки не было. Было обучение, не зависимое от следующего контрольного множества. Я выбирал разные периоды, и следующий месяц - это просто следующий месяц.  Я пробовал брать больше входных параметров, это не улучшает. В итоге я разделил сети. По-хорошему, в одной системе у меня их 3 (2 открытия + 1 закрытие), итого 11 входов. Так что я таки дрожу.

:)) возможно, произойдет чудо, такое бывает

или сами предикторы осмысленные
 
Подскажите как построить n-арное дерево? Я сделал через массив структур mass[0].mass[1].mass[n]...mass[n], но это не подходит, оно должно быть динамическим в глубину и не понятно как в таком случае добавлять новый узел, а адрес вообще получится очень длинным)
 
VANDER:
Подскажите как построить n-арное дерево? Я сделал через массив структур mass[0].mass[1].mass[n]...mass[n], но это не подходит, оно должно быть динамическим в глубину и не понятно как в таком случае добавлять новый узел, а адрес вообще получится очень длинным)

n-арное в смысле мультикаласс? Можно через эту же библиотеку, поставить кол-во деревьев = 1

 
Maxim Dmitrievsky:

n-арное в смысле мультикаласс? Можно через эту же библиотеку, поставить кол-во деревьев = 1

Чтобы оно было не БИнарным, а с произвольным числом потомков у каждого узла, типо такого: