交易中的机器学习:理论、模型、实践和算法交易 - 页 1393 1...138613871388138913901391139213931394139513961397139813991400...3399 新评论 Yuriy Asaulenko 2019.03.04 08:14 #13921 马克西姆-德米特里耶夫斯基。遗憾的是,经典版本不会起作用......这也是所有功能/目标的问题。 不要太戏剧化。经典NS已经工作了一年多。在NS退步方面也有一些进展。我不知道RL的情况,但我对经典之作根本没有任何问题。你应该正确制定任务,而不是像我想要一只烤鸟那样,你就不会有任何问题。不要预测跟踪蜡烛的价格)。 [删除] 2019.03.04 08:17 #13922 尤里-阿索连科。 不要太戏剧化。古典的NS已经工作了一年多了。我不知道RL的情况,但经典作品根本没有任何问题。我不知道RL的情况,但我对经典的东西没有任何问题。你应该正确制定任务,而不是像我想要一只烤鸟那样,你就不会有任何问题。不要预测跟踪蜡烛的价格)。我说的是我的经验 Yuriy Asaulenko 2019.03.04 08:31 #13923 马克西姆-德米特里耶夫斯基。我说的是我的经验 嗯,市场上的RL对我来说是非常模糊的。即使有文章。但这个话题非常有趣。我在一两个星期内不会有任何进展,我就会放弃。这就是全部。RL的有趣之处在于能够使TC完全自主,包括支持和完成交易。如果失败了,从普通的MLP和RF转到RL就没有多大意义了。如何做到这一点?- 我不知道。 [删除] 2019.03.04 09:38 #13924 尤里-阿索连科。 嗯,我不确定市场上的RL。我不知道市场上的RL情况。但这个话题非常有趣。我将在一两个星期内放弃。而且只有。RL的有趣之处在于能够使TC完全自主,包括支持和完成交易。如果失败了,从普通的MLP和RF转到RL就没有多大意义了。如何做到这一点?- 我不知道。你知道有老师的训练和强化训练之间的区别吗?它们的共同点是,NS被用作近似器。 Yuriy Asaulenko 2019.03.04 10:00 #13925 马克西姆-德米特里耶夫斯基。你了解在老师的指导下学习和在强化的情况下学习之间的区别吗? 它们是完全不同的方法。它们唯一的共同点是,NS被用作近似器。 绝对的,我理解)。这跟它有什么关系?一般来说,我指的是最终结果,而不是原则。如果结果是一样的,那么更复杂的解决方案就没有意义了。而且,他们的原则是什么也没有区别。到目前为止,我看到应用于交易开幕的RL并没有给出一个新的质量。 [删除] 2019.03.04 10:04 #13926 尤里-阿索连科。 我当然明白)。但这与此有什么关系呢?其实我说的是最终结果,而不是原则。如果结果是一样的,那么更复杂的解决方案就没有意义了。而且这对他们的原则没有任何影响。太抽象了......原则不同--解决问题的方法不同,结果也不同 一般来说,人们把自己的一生都献给了这个,例如萨顿,所以不存在 "快速 "学习/应用的问题。里面有一些非常棘手的东西,是属于后一种的。 Yuriy Asaulenko 2019.03.04 10:17 #13927 马克西姆-德米特里耶夫斯基。太抽象了......原则不同--解决问题的方法不同,结果也不同 你用RL的结果不比别人好,也不比别人差。办法与此有什么关系?重要的是结果。对于一个有老师开场的说教式MLP来说,其结果大致相同。即使你有几个。 更好。它并没有显著改变什么。你需要从RL的应用上有一个质的飞跃。不要误解,这根本不是对你的方法的批评。你做的一切都很好。 Forester 2019.03.04 10:22 #13928 马克西姆-德米特里耶夫斯基。太抽象了......不同的原则意味着解决问题的不同方法,不同的结果 一般来说,人们已经为它奉献了一生,比如萨顿,所以 "快速 "掌握它是不可能的。里面有非常复杂的东西,是来自最后的。从你的文章来看,这并不是一件非常复杂的事情,可以长期掌握。 在第一次训练前,通过随机设置一个目标,然后在每个训练周期后,如果获利就留下,如果亏损就改变。 [删除] 2019.03.04 10:23 #13929 尤里-阿索连科。 你用RL的结果不比别人好,也不比别人差。方法与此有什么关系?重要的是结果。在开场的交易中,老师的布道MLP的结果几乎相同。即使你有几个。 更好。它并没有显著改变什么。你需要从RL的应用上有一个质的飞跃。不要误解,这根本不是对你的方法的批评。你做得很好。说到结果--我没有看到与我的类似的东西,甚至没有。 我所看到的唯一结果是来自fxsaber,而不是来自完整意义上的mo。 我不需要提醒你纸巾上的回测。 我不认为这是一种批评,我只是说这是一种非常复杂的方法,我对 "我做几个星期就会没事了 "这样的说法感到好笑。 [删除] 2019.03.04 10:28 #13930 elibrarius。从你的文章来看,这不是一个特别难学的东西。 在第一次训练之前--设置一个随机目标,然后在每个周期的训练之后--如果它带来了利润,那么就留下,如果是损失,那么就改变它。即使是这样一个看似简单的事情,这里也没有人写过它,或者关于Rl、alglib脚手架等,直到我提出来。 那么我们在谈论什么呢...所以你只看到了 "随机目标",而如何将其附加到更复杂的东西上,你无法想到,因为看到准备好的东西,并说这很容易 - 总是容易的,但要提高...他们只是喋喋不休地说着每个人都很聪明,实际上他们只讨论明显的神经网络设置,但不讨论复杂的方法 阿索伦科提交了20个回归者的网格,并且很高兴......这不是很有趣吗? 1...138613871388138913901391139213931394139513961397139813991400...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
遗憾的是,经典版本不会起作用......这也是所有功能/目标的问题。
不要太戏剧化。古典的NS已经工作了一年多了。我不知道RL的情况,但经典作品根本没有任何问题。我不知道RL的情况,但我对经典的东西没有任何问题。你应该正确制定任务,而不是像我想要一只烤鸟那样,你就不会有任何问题。不要预测跟踪蜡烛的价格)。
我说的是我的经验
我说的是我的经验
嗯,我不确定市场上的RL。我不知道市场上的RL情况。但这个话题非常有趣。我将在一两个星期内放弃。而且只有。
你知道有老师的训练和强化训练之间的区别吗?它们的共同点是,NS被用作近似器。
你了解在老师的指导下学习和在强化的情况下学习之间的区别吗? 它们是完全不同的方法。它们唯一的共同点是,NS被用作近似器。
我当然明白)。但这与此有什么关系呢?其实我说的是最终结果,而不是原则。如果结果是一样的,那么更复杂的解决方案就没有意义了。而且这对他们的原则没有任何影响。
太抽象了......原则不同--解决问题的方法不同,结果也不同
一般来说,人们把自己的一生都献给了这个,例如萨顿,所以不存在 "快速 "学习/应用的问题。里面有一些非常棘手的东西,是属于后一种的。太抽象了......原则不同--解决问题的方法不同,结果也不同
太抽象了......不同的原则意味着解决问题的不同方法,不同的结果
一般来说,人们已经为它奉献了一生,比如萨顿,所以 "快速 "掌握它是不可能的。里面有非常复杂的东西,是来自最后的。从你的文章来看,这并不是一件非常复杂的事情,可以长期掌握。
在第一次训练前,通过随机设置一个目标,然后在每个训练周期后,如果获利就留下,如果亏损就改变。
你用RL的结果不比别人好,也不比别人差。方法与此有什么关系?重要的是结果。在开场的交易中,老师的布道MLP的结果几乎相同。即使你有几个。 更好。它并没有显著改变什么。你需要从RL的应用上有一个质的飞跃。
说到结果--我没有看到与我的类似的东西,甚至没有。
我所看到的唯一结果是来自fxsaber,而不是来自完整意义上的mo。
我不需要提醒你纸巾上的回测。
我不认为这是一种批评,我只是说这是一种非常复杂的方法,我对 "我做几个星期就会没事了 "这样的说法感到好笑。
从你的文章来看,这不是一个特别难学的东西。
在第一次训练之前--设置一个随机目标,然后在每个周期的训练之后--如果它带来了利润,那么就留下,如果是损失,那么就改变它。
即使是这样一个看似简单的事情,这里也没有人写过它,或者关于Rl、alglib脚手架等,直到我提出来。
那么我们在谈论什么呢...所以你只看到了 "随机目标",而如何将其附加到更复杂的东西上,你无法想到,因为看到准备好的东西,并说这很容易 - 总是容易的,但要提高...
他们只是喋喋不休地说着每个人都很聪明,实际上他们只讨论明显的神经网络设置,但不讨论复杂的方法
阿索伦科提交了20个回归者的网格,并且很高兴......这不是很有趣吗?