交易中的机器学习:理论、模型、实践和算法交易 - 页 598

 
阿列克谢-特伦特夫
1)训练中的情况如何?我没有看到权重是如何应用的。
2)神经元本身的权重是否可用?
3)作为一个媒介,你可以采取1-4阶的收盘或快速MA的导数。或增量。
4) 我会把隐藏层的大小与输入相等。

权重上升到加法器,一切都很经典,然后权重被送入激活函数。 只是不方便在触摸板上签署一切

作为一个 "环境"--这里我们假设NS已经在外部执行了一个动作,例如,一个交易......即系统内存的n个动作倒退;反馈也是如此--什么动作导致了什么结果

所以我将制作一个与输入层相同的内部层......也许以后会再添加一个。

 
尤里-阿索连科

你只会浪费你的时间。它不会在真实数据上发挥作用。

例如:NS的一个错误答案,就会影响后面所有的答案。


并非如此,只是NS将考虑交易的连贯性和有效性作为一个额外的因素......这只是一个选择,我并没有说这是最终的。

这就是为什么我要求提供其他想法。

+它是一个内置的自适应元件......像一个晶体管

和主要的NS有其他的fi

 
马克西姆-德米特里耶夫斯基

权重上升到加法器,一切都很经典,然后权重被送入激活函数。 只是不方便在触摸板上签署一切

作为一个 "环境"--这里我们假设NS已经在外部执行了一个动作,例如,一个交易......即系统内存的n个动作倒退;反馈也是如此--什么动作导致了什么结果

所以我将把一个内层放在与输入层相等的位置......以后可能会再增加一个内层。

然后作为一个选项,以点为单位的利润总和。一个成功的贸易->增加,反之亦然。
但这里的微妙之处在于,在这种情况下,我们应该考虑增加Q函数,因为它应该被视为一种奖励。或者在考虑到奖励的情况下推导出一个学习公式。
 
阿列克谢-特伦特夫
那么以点为单位的利润总和如何呢。一个成功的贸易->增加,反之亦然。
但这里的麻烦是,在这种情况下,我们应该考虑使用Q-函数,因为它必须被视为一种奖励。或者在考虑到奖励的情况下推导出一个学习公式。

是的,好的:)好的选择。

到目前为止,公式很简单--独立的神经元,过去的交易结果被送入其中,甚至不是神经元,只是简单的数值被添加到组合器中。 我还没有真正读过关于冷却器的文章

 
马克西姆-德米特里耶夫斯基

是的,好的:)好的选择。

到目前为止,公式很简单--独立的神经元,过去的交易结果被输入其中,甚至不是神经元,而是简单的数值被添加到加法器中。 我还没有真正读过关于冷却器的文章呢

你创建了两个相同的NS,用传统图像训练一个,另一个直接转移权重,根据第一个的预测结果配药,也就是说,第二个应该只从正面经验中学习。
 
伊万-内格雷什尼
你创造了两个相同的NS,教一个传统的图像,另一个通过直接转移尺度,根据第一个预测的结果来计量,即第二个应该只从正面经验中学习。

有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)

我希望它能明白,当它开始工作的时候,它的工作太不稳定,并重新安排自己。

 
马克西姆-德米特里耶夫斯基

有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)

我想让它明白,当它开始过于精明地工作和调整自己的时候

显然你的结构不适合这种目的。
 
尤里-阿索连科
显然你的结构不适合这种目的。

你是怎么做的?

 
马克西姆-德米特里耶夫斯基

你是怎么做的?

我不知道)。但是,绝对不是这样的。
 
马克西姆-德米特里耶夫斯基

有这样一种变体,首先在不同时期训练几个NS,然后将它们合并成一个......复杂的拟合 :)

我希望它能明白,当它开始急剧工作并重建自己的时候

首先--不完全是拟合,因为事实证明,委员会工作得更好,它可以解释,例如,在独立模型的相反符号偏差上,导致准确性增加。其次,提出的NS串联是一个单一的、自适应的模型,在强化学习 方法中也被证明是有益的。