With you can set up a reinforcement learning agent to solve the environment, i.e. to find the best action in each time step. The first step is to set up the policy, which defines which action to choose. For example we could use a uniform random policy. In this scenario the agent chooses all actions with equal probability...
Данная библиотека имеет расширенный функционал, позволяющий создавать неограниченное количество "Агентов". Использование библиотеки: Пример заполнения входных значений нормированными ценами закрытия: Обучение происходит в тестере...
有趣的文章http://www.long-short.pro/post/indikator-haosa-i-rezhimy-fondovogo-rynka-886
和一般的博客。
这是一个趋势指标。它取决于漂移与方差的比率,但可以与它们单独不相关。
你有没有试着用代码来表达他的指标?
不
不是
为什么不呢?
为什么?
不太清楚如何))。
谁能告诉我这种系统是如何建立的?
谁能告诉我这种系统是如何建立的?
什么事?
一个标准的终端,一个标准的 "单面交易 "面板和某种带有箭头的指示器,窗口被点击后是一个马赛克。
所有这些都是标准的MT,有什么不寻常的呢?
它是什么?
一个标准的终端,一个标准的 "单面交易 "面板和某种带有箭头的指示器,镶嵌式点击窗口
所有这些都是MT的标准配置,有什么不寻常的?
)))))
问题是如何创建像视频中那样的机器人来跟上市场,并在没有任何错误信号的情况下把握整个趋势。
Reinforcelearn"软件包中的RL手册
https://markusdumke.github.io/reinforcelearn/index.html
伙计,我的头都快被变量的数量炸开了,这么多东西,都不明白()
)))))
问题是如何创建像视频中那样的机器人来跟上市场,并在没有任何错误信号的情况下把握住趋势。
啊,我明白了,我太懒了,没有看视频,我三下五除二就倒回去了,没有声音))))。
嗯,显然这是一个高级机器人的广告)))),作为一个选项,使用马克西姆的库https://www.mql5.com/ru/code/22915, 优化后它会像时钟一样工作...但仅就历史而言,我想你不需要解释,甚至连未来都不知道;)
啊,我明白了,我没有看视频--懒得看,我在没有声音的情况下倒带了三次))))。
嗯,显然这是一个高级机器人的广告 ))))
这不是广告,而是在线模式下的直播信号