交易中的机器学习:理论、模型、实践和算法交易 - 页 942

 
奥尔加-谢莱梅
谢谢你。他以后肯定会读的。现在他正在睡觉,读一些Shelepin。他说不要打扰他。

好的。

让他找到塔肯斯定理。

 
阿列克谢-维亚兹米 金。

我按照这个原则把所有的东西都放到一个表格里了

我还做了一个按arr_TimeH分组的预测器--也许它在这种形式下会有用。

我在此附上文件。

我使用的程序有以下图片:只有30.81%的点击率


然而,如果我们把例如错误-2和-1加在一起,并把正确找到的解决方案加在一起,然后把它们与错误找到的解决方案放在一起,并忽略目标数字3,因为它是一个过滤器,它不会影响财务结果,我们将得到以下图片

在这种情况下,误差将是49.19%,这并不是很糟糕。

 
马克西姆-德米特里耶夫斯基

你用kfold alglib做实验了吗?它能改善结果吗?在你的一个旧帖子中看到,它似乎不能混合样品。它甚至必须这样做吗?

在相同的数据上,有什么结论表明哪种过度训练更少--森林或米尔普?我有怀疑,对于回归任务,森林的工作方式是歪的,返回的误差也是歪的(非常小),对于分类规范,森林的工作方式是歪的。

2.我看到有人对OpCl感兴趣,有没有想过把NS改写成它?例如,我完全放弃了GA,因为它是一些噩梦般的废话,现在一切都在1个核心的1个线程中训练。你可以在Cl上加快速度(尽管是那么快)。或者,如果你在Spark上训练,反正是平行的,没有什么意义。

3.或多或少理解了你放在git上的东西和你如何应用它。伟大的有趣的工作,尊重!:)

当我开始研究网络时,结果是https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_MultilayerPerceptron.mq5。 我在不同的序列中经历了不同的预测器集(有和没有洗牌)--File_Num参数负责这个。当然,我还试着为两个班级放了相同数量的记录。

这个网络的问题是,没有明确的标准来选择有效的样本。例如,在识别水果图片时,你可以清楚地识别出苹果和橙子的位置。对于价格图表,没有100%的选择标准,因此也没有100%的再培训标准。

https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5

随机森林对噪声的依赖性较小,在不同的采样条件下更有可能返回相同的结果。例如,在图中。

蓝色和黄色的数据几乎相同。虽然我预计会有更多的差异,因为第二片森林的部分样本被移除。

而在我看来,有些人试图用净值或森林来获得订单的开盘价,但他们忘记了获利是在订单关闭时发生的。为了解决这个问题,https://github.com/Roffild/RoffildLibrary/blob/master/Include/Roffild/OrderData.mqh 出现了 但这个类正好作为 "父类 "使用。

OpenCL只需要用于训练网络。对于网络或森林已经被训练过的最终计算,OpenCL是没有用的,因为将数据传输到显卡的时间非常长。而从网络或森林中检索数据的算法确实非常简单,CPU处理得非常好。

一般来说,Spark不仅在单台计算机的核心之间进行平行计算,而且还可以使用整个计算机网络。它是服务器间计算的一个标准。例如,我通常在亚马逊上以每小时0.25美元的价格购买32个核心,以快速获得一个完成的随机森林。

 
罗费尔德

这个网络的问题是,没有明确的标准来选择有效的样本。例如,在识别水果图片时,你可以清楚地识别哪里是苹果,哪里是橘子。对于价格图表,没有100%的选择标准,因此也没有100%的再培训标准。

https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5

随机森林对噪声的依赖性较小,在不同的采样条件下更经常返回相同的结果。例如,在图中

那是因为在NS中你需要拾取建筑,而森林总是以同样的方式工作,是的 :)

而要挑起一个架构,你应该映射多维特征空间,弄清楚哪一层负责什么,或者只是用直觉。但是,从理论上讲,正确地捡起NS,应该会有更好的结果,而且在超配方面也是如此。

还不是所有的图书馆,谢谢,我将进一步研究。

 
恶梦
 
进入森林越远,木柴越大...
 

另一本有用的俄语

Джулли А.,Пал С. - Библиотека Keras - инструмент глубокого обучения [2018, PDF, RUS] :: RuTracker.org
  • rutracker.org
Автор : 2018 : Джулли А.,Пал С.: ДМК Пресс : 978-5-97060-573-8 : Русский: PDF : Отсканированные страницы : 298: Книга представляет собой краткое, но обстоятельное введение в современные нейронные сети, искусственный интеллект и технологии глубокого обучения. В ней представлено более 20 работоспособных нейронных сетей, написанных на языке...
 
弗拉基米尔-佩雷文科

另一本有用的俄语

如何找到Keras?它是比达奇好还是一样?在相同的数据、epochs数量等条件下,它能不能学得更快?
 
elibrarius
Keras在你看来如何?它是否比达奇更好,或者能力相同?用同样的数据、epochs的数量等来学习是否更快?

没有比较。Kegas - 在结构、培训和定制方面有无限的可能性,有大量的例子和详细的文档。另外,关于TensorFlow - 它的发展速度非常快(已经是1.8)。很明显,这有其优点和缺点。它没有那么快学会,你需要做一些额外的体操。要优化超参数是很困难的。否则这就是今后的主要重点。

祝好运

 
阿列克谢-维亚兹米 金。

我还没有和R交过朋友,所以我很想看看你想出了什么办法!

对每周的TF进行了分解,1400条(几乎是终端中所有可用的历史)。

这里不显示日期,所以不是很方便。我将不得不在Plot或指标中重写它,以便在图表中进行标记。

在较小的mods上有更明显的tscc。而最大的一个是+-14年(28年中的2个半周期),分为4个7年周期(如我所说)。此外,上一个7年周期在今年年初结束(大致如此),这表明在更早的日期教授网格没有什么意义了

中间的周期没有那么明显

而不是绞尽脑汁,我们只需要把所有的mods都弄到NS中去,另外它们也不相干。

然后它将认识到不同的周期,也许不是,一个哲学问题,因为你这样做将是:)