Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
Добрый день. Я одного не пойму, зачем нужно что-либо добавлять к Метатрейдеру в плане обучения нейронной сети?
Вот есть веса, их нужно оптимизировать с помощью механизма оптимизации в Метатрейдере. Неужели вы не думали, что разрабы Метатрейдера уже неплохо продвинулись в вопросе обучения сетей / оптимизации параметров?
Бай и селл осуществляются по правилам, которые определяются индикаторами. Нейронная сеть агрегирует "данные наблюдения" за этими индикаторами (количество пиков, высота пиков накануне сделки и т.д.), но не сами значения индикаторов, ибо это глупость. Проверить конфигурацию весов можно сразу по ходу обучения, например так: +1 если следующие 2 дня рынок пошел куда надо, и -1 если не туда. В конце каждая конфигурация весов имеет сумму. Так мы оптимизируем наилучшую конфигурацию весов по пользовательскому критерию (это такой параметр оптимизации, надо же все продумано?!).
Описанный пример занимает в коде 40-50 строк. Вот и вся нейронная сеть с обучением. И я возвращаюсь к своему изначальному вопросу: почему вы считаете, что придумав что-то сложное и малосразупонятное, вы стали ближе к святому граалю? Чем сложней и непонятней созданный мною черный ящик, тем больше мне это льстит, мол, какой же я умный?!
подрастешь - поймешь
хотя бы, для начала, почитай какие солверы используются в нейронных сетях, и почему никто не использует генетику для их обученияподрастешь - поймешь
хотя бы, для начала, почитай какие солверы используются в нейронных сетях, и почему никто не использует генетику для их обученияЯ так и знал, что все дело в солверах
даже при 50 интпутах и 2-слойной НС по 15 нейронов в слое, посчитай примерное кол-во весов. Через оптимизатор уже такой примитив будешь оптимизировать примерно вечность. А это еще весьма несложная конструкция.
Загони эти 50 инпутов в мой пример и обучишься мгновенно. Разница примерно в этом.
даже при 50 интпутах и 2-слойной НС по 15 нейронов в слое, посчитай примерное кол-во весов. Через оптимизатор уже такой примитив будешь оптимизировать примерно вечность. А это еще весьма несложная конструкция.
Загони эти 50 инпутов в мой пример и обучишься мгновенно. Разница примерно в этом.
Вот об этом и речь. Вы усложняете и считаете, что это верный путь. Это неверный путь. Сложнее не значит лучше.
У меня 4 входа, 3 нейрона, один слой - на каждый сигнал. Сигналов всего два, но для одного символа индивидуально. Символов много. Торговля в течение месяца после года обучения лучше с нейронной сетью, чем без нее. Вот результат! Открыл недавно, сижу дрожу от счастья и просматриваю, что еще понапридумывали. В ожидании подтверждения на реальной торговле.
Вот об этом и речь. Вы усложняете и считаете, что это верный путь. Это неверный путь. Сложнее не значит лучше.
У меня 4 входа, 3 нейрона, один слой - на каждый сигнал. Сигналов всего два, но для одного символа индивидуально. Символов много. Торговля в течение месяца после года обучения лучше с нейронной сетью, чем без нее. Вот результат! Открыл недавно, сижу дрожу от счастья и просматриваю, что еще понапридумывали. В ожидании подтверждения на реальной торговле.
ничего не усложнено, это классическая модель МО
обучение через оптимизатор это еще бОльшая подгонка, потому что выбираете варианты которые вам понравятся и которые работают на форварде, из сотен и тысяч тех что не работают. Это ментальная ловушка, вам кажется что произошел процесс обучения - на самом деле процесс подгонки. Разделите кол-во работающих моделей на кол-во не работающих на форварде из всего списка оптимизации, и получите примерно вероятность того что что-то из отобранного будет работать в реале в дальнейшем. Обычно это 1-5% вероятность.
поэтому дрожать не нужно, это оверфит с вероятностью 99%
в любом случае: Удачи.ничего не усложнено, это классическая модель МО
обучение через оптимизатор это еще бОльшая подгонка, потому что выбираете варианты которые вам понравятся и которые работают на форварде, из сотен и тысяч тех что не работают. Это ментальная ловушка, вам кажется что произошел процесс обучения - на самом деле процесс подгонки. Разделите кол-во работающих моделей на кол-во не работающих на форварде из всего списка оптимизации, и получите примерно вероятность того что что-то из отобранного будет работать в реале в дальнейшем. Обычно это 1-5% вероятность.
поэтому дрожать не нужно, это оверфит с вероятностью 99%
в любом случае: Удачи.Не не не. Подгонки не было. Было обучение, не зависимое от следующего контрольного множества. Я выбирал разные периоды, и следующий месяц - это просто следующий месяц. Я пробовал брать больше входных параметров, это не улучшает. В итоге я разделил сети. По-хорошему, в одной системе у меня их 3 (2 открытия + 1 закрытие), итого 11 входов. Так что я таки дрожу.
Другими словами, текущий месяц - это такое же контрольное множество, на котором я делал проверку в прошлом. Никакой подгонки под контрольный месяц не было.
Не не не. Подгонки не было. Было обучение, не зависимое от следующего контрольного множества. Я выбирал разные периоды, и следующий месяц - это просто следующий месяц. Я пробовал брать больше входных параметров, это не улучшает. В итоге я разделил сети. По-хорошему, в одной системе у меня их 3 (2 открытия + 1 закрытие), итого 11 входов. Так что я таки дрожу.
:)) возможно, произойдет чудо, такое бывает
или сами предикторы осмысленныеПодскажите как построить n-арное дерево? Я сделал через массив структур mass[0].mass[1].mass[n]...mass[n], но это не подходит, оно должно быть динамическим в глубину и не понятно как в таком случае добавлять новый узел, а адрес вообще получится очень длинным)
n-арное в смысле мультикаласс? Можно через эту же библиотеку, поставить кол-во деревьев = 1
n-арное в смысле мультикаласс? Можно через эту же библиотеку, поставить кол-во деревьев = 1
Чтобы оно было не БИнарным, а с произвольным числом потомков у каждого узла, типо такого: