交易中的机器学习:理论、模型、实践和算法交易 - 页 870

 
elibrarius
我是说有多少行训练数据(或训练例子)。
例如:10000行,15个输入

根据记忆--第1项。大约5-10万。 每隔几个epochs,数据就会混合。

在一定数量的 epochs之后,训练序列被另一个序列取代,见第1点。以此类推几个纪元。

总的历时数大约是1000。带有中间重新配置和测试的学习时间约为一天。

上面的图表是我第一次实验的结果,那里的一切都比较简单。

 
尤里-阿索连科

根据记忆--第1项,大约5-10万。 每隔几个历时,数据就会混合。

在一定数量的 epochs之后,训练序列被另一个序列取代,见第1点。以此类推几个纪元。

总的历时数大约是1000。带有中间重新配置和测试的学习时间约为一天。

上图是我第一次实验的结果,那里的一切都比较简单。

有趣的方法--你得到初级培训+一些后续培训。
 
elibrarius
有趣的方法--你得到初级培训+一些再培训。

我不会这样称呼它。只是在训练中替换了学习顺序。所以它不会被用于相同的数据)。

是的,加上退火也是如此。因为我使用的是标准的BP算法,所以每隔几个epochs就手动改变NS的训练参数。

SZY阅读这个主题,这里有关于像我这样的系统结构的更多细节 -https://www.mql5.com/ru/forum/239508

ТС на нейросети (оч. краткое руководство)
ТС на нейросети (оч. краткое руководство)
  • 2018.04.22
  • www.mql5.com
Вместо введения Типовая ТС состоит из ВР, индикаторов и логического блока принятия решений (БПР...
 
尤里-阿索连科

我不会这样称呼它。只是在训练中替换了学习顺序。不习惯于相同的数据)。

我认为这只是对新数据的再培训。在对第一个数据块进行训练后,你不会重置网络权重。

 
elibrarius

我认为这是对新数据的重新学习。这并不像你在第一个数据块上学习后重新设置网络的权重。

我当然不知道。但没有新的数据--同一故事的新序列。它是同一个学习的延续,是一个单一的过程。因此,每一个时代都可以被当作一次重新学习的机会。嗯,这更像是一个术语问题。

 
elibrarius
没有隐藏层的回归,似乎...
是时候换成R了,我用alglib NS试了一下--计算同样的网络,比用R要慢十倍(比如24小时对30-60分钟)。另外,在alglib中最多只有2个隐藏层,而根据你的观察,你需要3个连续的转换,也就是3层。
回归是线性的。R不是hoW,是python的挖掘 - 但我看不出有什么意义。
 
尤里-阿索连科

我当然不知道。但没有新的数据--同一故事的新序列。它是同一个学习的延续,是一个单一的过程。因此,每一个时代都可以被当作一次重新学习的机会。嗯,这倒是一个术语的问题。

那么,正确理解对方(对术语有相同的概念)是很重要的。
在同一数据上的每一个 epoch 都在学习。正如我们的背诵学习。
对于新的,在没有重新设置刻度的情况下,是重新学习。而你有这些东西是新的,因为国家安全局在最初的培训中没有意识到它们。
 

回归是对下一个价格的预测。与分类不同,预测的不是交易的方向或类型,而是价格,包括所有小数位。

有的是线性回归,有的是非线性回归。Arima, Garch, 甚至一个有正确配置的神经元(例如,1个没有激活的输出)也都是回归的。

 
交易员博士

回归是对下一个价格的预测。与分类不同,预测的不是交易的方向或类型,而是价格,包括所有小数位。

有的是线性回归,有的是非线性回归。Arima、Garch甚至神经元c都有正确的配置(例如,1个输出没有激活)--它也都是回归的。

这首先是为了什么呢?我说的是logit回归,在绝大多数情况下,你可以把自己限制在分类上,而不去搞什么NS。快速、干净,没有重写。
 

我和桑桑尼奇聊了一下。我们安顿好了,我正在为回归训练准备一份文件,然后我们将继续进行所发生的事情。所以,兄弟们,我现在做的是卸货,发明了这样一个想法,很多人根本没有足够的牵引力,你可以这样做。倒退的适应性目标如何?????AAA?

我不知道它是否好,但值得一查。:-)