交易中的机器学习:理论、模型、实践和算法交易 - 页 408

 

大家下午好。


让我澄清一下,参与者使用哪些ML包,还是一切都通过MQL完成?

 

令人惊讶的是,该文件是可读的,模型的质量很差,谁愿意在验证....。

附加的文件:
 
Mihail Marchukajtes:

令人惊讶的是,文件是可读的,模型的质量很弱,谁愿意在验证....。

在一个文件中,它被写成
* 真正的积极因素:853
* 真负数:1098
* 假阳性率:732
* 假阴性率:985

即几乎是50/50。
我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入真的会扰乱RNN的结果。

 
elibrarius

该文件说
* 真正的积极因素:853
* 真负数:1098
* 假阳性率:732
* 假阴性率:985

即几乎是50/50。
我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入非常破坏RNN的结果。


这是正确的,该模型的通用性是52%,所以...
 
Aleksey Terentev:

大家下午好。


让我澄清一下,参与者使用哪些ML包,还是一切都通过MQL完成?

通常情况下,除了少数爱好者试图用MQL重写一些模型外,一切都在R中完成。关于软件包--这取决于人们使用哪种模型--树、神经网络、深度神经网络 等。

你对哪个型号感兴趣?

祝好运

 
弗拉基米尔-佩雷文科

通常情况下,除了一些爱好者试图用MCL重写一些模型外,一切都在R中完成。至于包,这取决于人们使用哪种模型--树、神经网络、深度神经网络等。

你对哪个型号感兴趣?

祝好运


你忘了雷舍托夫的优化器,这里也用了....。
 
elibrarius

该文件说
* 真正的积极因素:853
* 真负数:1098
* 假阳性率:732
* 假阴性率:985

即几乎是50/50。
我在一个稍微简单的逻辑问题上得到了差不多的结果,这就是为什么我假设噪声输入非常破坏RNN的结果。


一个正常的MLP 20-5-1可以对同样的问题做到这一点。

训练的平均误差(60.0%)情节=0.116(11.6%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试的平均误差(20.0%)=0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
计算时间=0.77分钟。

虽然有时也会给出50%,但我想我需要2个以上的再培训周期。
---------------------------------

网络nnet 20-1-1的R :
预测的
实际 0 1 误差
0 0.41 0.09 0.18
1 0.24 0.26 0.48

稍微差一点,但只需几秒钟就能解决。

但在训练部分,RNN的误差=0。这也很酷。我可能会把我的实验写进博客

 
elibrarius

一个普通的MLP 20-5-1可以产生这样的相同问题。

训练中的平均误差(60.0%)情节=0.116(11.6%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试的平均误差(20.0%)=0.129(12.9%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
计算时间=0.77分钟
---------------------------------

网络nnet 20-1-1来自R :
预测的
实际 0 1 误差
0 0.41 0.09 0.18
1 0.24 0.26 0.48

稍微差一点,但只需几秒钟就能解决。

我们在这里要有一点不同的理解,解决一个问题并不是一件难事,但模型将以何种方式进一步表现,这才是问题所在。我们可以快速学习,没有错误。但有了新的数据,我们将一无所获。Predikshin有一个非常好的特点--在新的数据上,它的错误率与训练时一样。因为它没有再培训,等等等等。而其他网络可以很快地学习这个例子,但在新的数据上显示出更差的结果......。IMHO
 
Mihail Marchukajtes:

我们必须认识到,解决问题并不是一件难事,但模型之后的表现方式才是问题所在。我们可以快速学习,没有错误。而有了新的数据,我们将一无所获。Predikshin有一个非常好的特点--在新的数据上,它的错误率与训练时一样。因为它没有再培训,等等等等。而其他网络可以很快地学习这个例子,但在新的数据上显示出更差的结果......。IMHO

因此,这里是新的数据。

验证的平均误差(20.0%)部分=0.111(11.1%) nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试时的平均误差(20.0%)现场=0.129(12.9%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2

 
elibrarius

因此,这里是新的数据。

验证的平均误差(20.0%)情节=0.111(11.1%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2
测试的平均误差(20.0%)情节=0.129(12.9%)nLearns=2 NGrad=2297 NHess=0 NCholesky=0 codResp=2


我不是在争论,可能是...:-)