Вы упускаете торговые возможности:
- Бесплатные приложения для трейдинга
- 8 000+ сигналов для копирования
- Экономические новости для анализа финансовых рынков
Регистрация
Вход
Вы принимаете политику сайта и условия использования
Если у вас нет учетной записи, зарегистрируйтесь
How do I know this reward is good?
Если убыток, то алгоритм должен попробовать не торговать или торговать в противоположном направлении, мы не знаем как правильно, используем случайное значение. Другого смысла в указанных строках нет
Если убыток, то алгоритм должен попробовать не торговать или торговать в противоположном направлении, мы не знаем как правильно, используем случайное значение. Другого смысла в указанных строках нет
сама статья и приведенный алгоритм имеет ознакомительный характер, чтобы получить результат и не только в тестере нужно готовить входные данные, я в последнее время много смотрю видео на ютуб на эту тему, вот очень познавательный пример, да и канал в целом
для начала думаю обучать по часам, т.е. 24 подготовленных нейросети, т.к. в разное время суток разная волатильность, ну а там посмотримThis is exactly what I have been working almost from the beginning of the article as how to integrate account parameters to the policy and how to update the reward based on profits and losses. But till now I am not able to successfully implement anything.
I noticed that if we will try to implement profits and losses to the reward function, then we have to entirely change this updateReward() function. Also, we may need to change the matrix implementation completely.
I have a solution to implement profits and losses using Q-learning by BellMan's equation in which we can implement floating profits and losses to the agent to update the reward. But we need to create a new matrix and update the whole matrix on every candle. But I am not good at matrix implementation and hence, I am just waiting for the author to publish his next article with new agents.
If anyone is interested in Q learning implementation and can implement the matrix, then I can discuss here as how to update the reward using profits and losses using Q value.
I have been testing the EA with unlimited number of combination of indicators and settings, but I figured out that there is no other way to improve the results without updating the policy. The agent is doing exactly what it has been assigned to do and hence, it is just closing small small profits to increase the win % , but overall the account doesn't grow profit since the policy doesn't consider small or big losses separately.
Hi Maxim Dmitrievsky,
Is there any progress or update towards publishing your next article regarding RDF ?
Thank you...
After updating to build 1940, it is no longer working, the return of the calculation receives the value of "-nan (ind)". Anybody know what happened?
Hi, try this library https://www.mql5.com/ru/code/22915
or try to recompile
thank you Maxim Dmitrievsky, but I have already made all the knowledge on this case, I would like to try to correct this mistake, since I am already running a robbery with the idea that was presented in this article. could help identify what caused the error. It stopped working when upgrading to version 1940.
Try to download correct fuzzy library from here, because maybe MT5 update can change it to default
https://www.mql5.com/ru/forum/63355#comment_5729505
Добрый день. Я одного не пойму, зачем нужно что-либо добавлять к Метатрейдеру в плане обучения нейронной сети?
Вот есть веса, их нужно оптимизировать с помощью механизма оптимизации в Метатрейдере. Неужели вы не думали, что разрабы Метатрейдера уже неплохо продвинулись в вопросе обучения сетей / оптимизации параметров?
Бай и селл осуществляются по правилам, которые определяются индикаторами. Нейронная сеть агрегирует "данные наблюдения" за этими индикаторами (количество пиков, высота пиков накануне сделки и т.д.), но не сами значения индикаторов, ибо это глупость. Проверить конфигурацию весов можно сразу по ходу обучения, например так: +1 если следующие 2 дня рынок пошел куда надо, и -1 если не туда. В конце каждая конфигурация весов имеет сумму. Так мы оптимизируем наилучшую конфигурацию весов по пользовательскому критерию (это такой параметр оптимизации, надо же все продумано?!).
Описанный пример занимает в коде 40-50 строк. Вот и вся нейронная сеть с обучением. И я возвращаюсь к своему изначальному вопросу: почему вы считаете, что придумав что-то сложное и малосразупонятное, вы стали ближе к святому граалю? Чем сложней и непонятней созданный мною черный ящик, тем больше мне это льстит, мол, какой же я умный?!