交易中的机器学习:理论、模型、实践和算法交易 - 页 2052

 
Maxim Dmitrievsky:

很明显,他不是一个白痴。 这个测试很简单,但它可能已经过时了。

如果像《白痴》中那样,它也会变成复杂的))。

 
Rorschach:

如果像《白痴》中那样,也会很难))。

我可以想到很多我认识的人或当地的竞争者都无法做到这一点。

 
Aleksey Vyazmikin:

如果它给出的预测值是一栏或更多,那还不足以做出决定,它并不比MA好多少。而人们感兴趣的是收入偏离这个名义上的MA的情况。

你走多远,它就走多远。

我今天早上用测试器摆弄了一下rnn--它正在重新训练增量。在火车上是好的,在测试器上则是坏的。

如果结果不比森林好,我不知道你到底需要它做什么。总的来说,这是一个很酷的事情,但它仍然没有任何好处。
 

神经网络色情......我将很快上传第二部分的结论,关于RNN(GRU)。

ч.2.视频结尾处的正常测试。在这之前,我没有办法想好好训练。


再来回顾一下,用catbust做的事情大致是这样的,结果是更好。


 
Maxim Dmitrievsky:

神经网络色情......我将很快上传第二部分的结论,关于RNN(GRU)。

ч.2.视频结尾处的正常测试。在这之前,我没有办法想好好训练。


再来回顾一下,大约与catbust的工作原理相同,其中效果更好。


你不使用Numba进行加速?

 
Rorschach:

你不是用Numba来加速吗?

没有它,循环本身也很快,到目前为止,我不需要它。

如果可能的话,矢量化是无处不在的,那里的一切都很快。

Z.I.明显的缺陷--你不能用对数损失或交叉熵来教学,你至少需要栓上一个公制。我只是刚刚意识到这一点。正因为如此,结果很可能不是很好。

邀请函是来自ODS的吗? 也许还有其他方式,我得问问。
 
Maxim Dmitrievsky:

循环本身在没有它的情况下工作得很快,到目前为止,没有必要

如果可能的话,到处都是矢量化,那里的一切都很快速。

Z.I.明显的缺陷--你不能用对数损失或交叉熵进行教学,你至少要拧入一个准确度指标。我只是刚刚意识到这一点。正因为如此,结果很可能不是很好。

你是从ODS获得的邀请吗? 也许有其他的方法,我得问问

有时numpy数组的计算时间要比python列表长。我还注意到,将代码包裹到一个函数中会导致速度提高。

还没到,我不知道下次去NS的时间。

 
Rorschach:

,我有时发现numpy数组的评估时间比python列表长。我还注意到,把代码包进一个函数中会有一个速度的提升。

还没来得及做,有点不急,不知道下一次在NS的运行是什么时候。

这很奇怪。可能是按元素计算,而不是按矢量计算。

南派作为加分项应该飞行,有一个小的头顶
 
Maxim Dmitrievsky:

这很奇怪。可能是按元素计算,而不是按矢量计算。

南派像李子应该会飞,有一点矫枉过正。

是的,如果你必须在一个循环中进行。

我数了一下,numba大概有500次,但并不准确。你必须把这段代码放到一个函数中,并把@njit放在那里。@vectorize以@njit的速度工作,所以没有必要摆弄它,只有当你指望gpu的时候。但GPU更麻烦,数组不能在函数内声明,代码应设计为无循环,否则将非常长。
 

这是catbust在相同数据上的训练情况(5秒内)。

52:学习:0.7964708测试:0.7848837 最佳:0.7860866 (27) 总计:604ms 剩余:5.09s

来源数据集。

训练过的模型(交易的后半部分是测试样本)。


当然,并不总是如此,这取决于抽样(而且是随机的,即需要超额抽样)。有时像这样。

34:学习:0.5985972测试:0.5915832 最佳:0.5927856 (9) 总计:437ms 剩余:5.81s