交易中的机器学习:理论、模型、实践和算法交易 - 页 598 1...591592593594595596597598599600601602603604605...3399 新评论 Maxim Dmitrievsky 2018.01.22 12:20 #5971 阿列克谢-特伦特夫。 1)训练中的情况如何?我没有看到权重是如何应用的。 2)神经元本身的权重是否可用? 3)作为一个媒介,你可以采取1-4阶的收盘或快速MA的导数。或增量。 4) 我会把隐藏层的大小与输入相等。权重上升到加法器,一切都很经典,然后权重被送入激活函数。 只是不方便在触摸板上签署一切作为一个 "环境"--这里我们假设NS已经在外部执行了一个动作,例如,一个交易......即系统内存的n个动作倒退;反馈也是如此--什么动作导致了什么结果所以我将制作一个与输入层相同的内部层......也许以后会再添加一个。 Maxim Dmitrievsky 2018.01.22 12:28 #5972 尤里-阿索连科。你只会浪费你的时间。它不会在真实数据上发挥作用。例如:NS的一个错误答案,就会影响后面所有的答案。并非如此,只是NS将考虑交易的连贯性和有效性作为一个额外的因素......这只是一个选择,我并没有说这是最终的。这就是为什么我要求提供其他想法。+它是一个内置的自适应元件......像一个晶体管和主要的NS有其他的fi Aleksey Terentev 2018.01.22 14:05 #5973 马克西姆-德米特里耶夫斯基。 权重上升到加法器,一切都很经典,然后权重被送入激活函数。 只是不方便在触摸板上签署一切作为一个 "环境"--这里我们假设NS已经在外部执行了一个动作,例如,一个交易......即系统内存的n个动作倒退;反馈也是如此--什么动作导致了什么结果所以我将把一个内层放在与输入层相等的位置......以后可能会再增加一个内层。 然后作为一个选项,以点为单位的利润总和。一个成功的贸易->增加,反之亦然。 但这里的微妙之处在于,在这种情况下,我们应该考虑增加Q函数,因为它应该被视为一种奖励。或者在考虑到奖励的情况下推导出一个学习公式。 Maxim Dmitrievsky 2018.01.22 14:18 #5974 阿列克谢-特伦特夫。 那么以点为单位的利润总和如何呢。一个成功的贸易->增加,反之亦然。 但这里的麻烦是,在这种情况下,我们应该考虑使用Q-函数,因为它必须被视为一种奖励。或者在考虑到奖励的情况下推导出一个学习公式。是的,好的:)好的选择。到目前为止,公式很简单--独立的神经元,过去的交易结果被送入其中,甚至不是神经元,只是简单的数值被添加到组合器中。 我还没有真正读过关于冷却器的文章 Ivan Negreshniy 2018.01.22 14:57 #5975 马克西姆-德米特里耶夫斯基。 是的,好的:)好的选择。到目前为止,公式很简单--独立的神经元,过去的交易结果被输入其中,甚至不是神经元,而是简单的数值被添加到加法器中。 我还没有真正读过关于冷却器的文章呢 你创建了两个相同的NS,用传统图像训练一个,另一个直接转移权重,根据第一个的预测结果配药,也就是说,第二个应该只从正面经验中学习。 Maxim Dmitrievsky 2018.01.22 15:12 #5976 伊万-内格雷什尼。 你创造了两个相同的NS,教一个传统的图像,另一个通过直接转移尺度,根据第一个预测的结果来计量,即第二个应该只从正面经验中学习。有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)我希望它能明白,当它开始工作的时候,它的工作太不稳定,并重新安排自己。 Yuriy Asaulenko 2018.01.22 15:20 #5977 马克西姆-德米特里耶夫斯基。 有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)我想让它明白,当它开始过于精明地工作和调整自己的时候 显然你的结构不适合这种目的。 Maxim Dmitrievsky 2018.01.22 15:26 #5978 尤里-阿索连科。 显然你的结构不适合这种目的。你是怎么做的? Yuriy Asaulenko 2018.01.22 15:26 #5979 马克西姆-德米特里耶夫斯基。 你是怎么做的? 我不知道)。但是,绝对不是这样的。 Ivan Negreshniy 2018.01.22 15:28 #5980 马克西姆-德米特里耶夫斯基。 有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)我希望它能明白,当它开始急剧工作并重建自己的时候首先--不完全是拟合,因为事实证明,委员会工作得更好,它可以解释,例如,在独立模型的相反符号偏差上,导致准确性增加。其次,提出的NS串联是一个单一的、自适应的模型,在强化学习 方法中也被证明是有益的。 1...591592593594595596597598599600601602603604605...3399 新评论 您错过了交易机会: 免费交易应用程序 8,000+信号可供复制 探索金融市场的经济新闻 注册 登录 拉丁字符(不带空格) 密码将被发送至该邮箱 发生错误 使用 Google 登录 您同意网站政策和使用条款 如果您没有帐号,请注册 可以使用cookies登录MQL5.com网站。 请在您的浏览器中启用必要的设置,否则您将无法登录。 忘记您的登录名/密码? 使用 Google 登录
1)训练中的情况如何?我没有看到权重是如何应用的。
2)神经元本身的权重是否可用?
3)作为一个媒介,你可以采取1-4阶的收盘或快速MA的导数。或增量。
4) 我会把隐藏层的大小与输入相等。
权重上升到加法器,一切都很经典,然后权重被送入激活函数。 只是不方便在触摸板上签署一切
作为一个 "环境"--这里我们假设NS已经在外部执行了一个动作,例如,一个交易......即系统内存的n个动作倒退;反馈也是如此--什么动作导致了什么结果
所以我将制作一个与输入层相同的内部层......也许以后会再添加一个。
你只会浪费你的时间。它不会在真实数据上发挥作用。
例如:NS的一个错误答案,就会影响后面所有的答案。
并非如此,只是NS将考虑交易的连贯性和有效性作为一个额外的因素......这只是一个选择,我并没有说这是最终的。
这就是为什么我要求提供其他想法。
+它是一个内置的自适应元件......像一个晶体管
和主要的NS有其他的fi
权重上升到加法器,一切都很经典,然后权重被送入激活函数。 只是不方便在触摸板上签署一切
作为一个 "环境"--这里我们假设NS已经在外部执行了一个动作,例如,一个交易......即系统内存的n个动作倒退;反馈也是如此--什么动作导致了什么结果
所以我将把一个内层放在与输入层相等的位置......以后可能会再增加一个内层。
但这里的微妙之处在于,在这种情况下,我们应该考虑增加Q函数,因为它应该被视为一种奖励。或者在考虑到奖励的情况下推导出一个学习公式。
那么以点为单位的利润总和如何呢。一个成功的贸易->增加,反之亦然。
但这里的麻烦是,在这种情况下,我们应该考虑使用Q-函数,因为它必须被视为一种奖励。或者在考虑到奖励的情况下推导出一个学习公式。
是的,好的:)好的选择。
到目前为止,公式很简单--独立的神经元,过去的交易结果被送入其中,甚至不是神经元,只是简单的数值被添加到组合器中。 我还没有真正读过关于冷却器的文章
是的,好的:)好的选择。
到目前为止,公式很简单--独立的神经元,过去的交易结果被输入其中,甚至不是神经元,而是简单的数值被添加到加法器中。 我还没有真正读过关于冷却器的文章呢
你创造了两个相同的NS,教一个传统的图像,另一个通过直接转移尺度,根据第一个预测的结果来计量,即第二个应该只从正面经验中学习。
有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)
我希望它能明白,当它开始工作的时候,它的工作太不稳定,并重新安排自己。
有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)
我想让它明白,当它开始过于精明地工作和调整自己的时候
显然你的结构不适合这种目的。
你是怎么做的?
你是怎么做的?
有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)
我希望它能明白,当它开始急剧工作并重建自己的时候
首先--不完全是拟合,因为事实证明,委员会工作得更好,它可以解释,例如,在独立模型的相反符号偏差上,导致准确性增加。其次,提出的NS串联是一个单一的、自适应的模型,在强化学习 方法中也被证明是有益的。