Автор : 2018 : Джулли А.,Пал С.: ДМК Пресс : 978-5-97060-573-8 : Русский: PDF : Отсканированные страницы : 298: Книга представляет собой краткое, но обстоятельное введение в современные нейронные сети, искусственный интеллект и технологии глубокого обучения. В ней представлено более 20 работоспособных нейронных сетей, написанных на языке...
谢谢你。他以后肯定会读的。现在他正在睡觉,读一些Shelepin。他说不要打扰他。
好的。
让他找到塔肯斯定理。
我按照这个原则把所有的东西都放到一个表格里了
我还做了一个按arr_TimeH分组的预测器--也许它在这种形式下会有用。
我在此附上文件。
我使用的程序有以下图片:只有30.81%的点击率
然而,如果我们把例如错误-2和-1加在一起,并把正确找到的解决方案加在一起,然后把它们与错误找到的解决方案放在一起,并忽略目标数字3,因为它是一个过滤器,它不会影响财务结果,我们将得到以下图片
在这种情况下,误差将是49.19%,这并不是很糟糕。
你用kfold alglib做实验了吗?它能改善结果吗?在你的一个旧帖子中看到,它似乎不能混合样品。它甚至必须这样做吗?
在相同的数据上,有什么结论表明哪种过度训练更少--森林或米尔普?我有怀疑,对于回归任务,森林的工作方式是歪的,返回的误差也是歪的(非常小),对于分类规范,森林的工作方式是歪的。
2.我看到有人对OpCl感兴趣,有没有想过把NS改写成它?例如,我完全放弃了GA,因为它是一些噩梦般的废话,现在一切都在1个核心的1个线程中训练。你可以在Cl上加快速度(尽管是那么快)。或者,如果你在Spark上训练,反正是平行的,没有什么意义。
3.或多或少理解了你放在git上的东西和你如何应用它。伟大的有趣的工作,尊重!:)
当我开始研究网络时,结果是https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_MultilayerPerceptron.mq5。 我在不同的序列中经历了不同的预测器集(有和没有洗牌)--File_Num参数负责这个。当然,我还试着为两个班级放了相同数量的记录。
这个网络的问题是,没有明确的标准来选择有效的样本。例如,在识别水果图片时,你可以清楚地识别出苹果和橙子的位置。对于价格图表,没有100%的选择标准,因此也没有100%的再培训标准。
https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5
随机森林对噪声的依赖性较小,在不同的采样条件下更有可能返回相同的结果。例如,在图中。
蓝色和黄色的数据几乎相同。虽然我预计会有更多的差异,因为第二片森林的部分样本被移除。
而在我看来,有些人试图用净值或森林来获得订单的开盘价,但他们忘记了获利是在订单关闭时发生的。为了解决这个问题,https://github.com/Roffild/RoffildLibrary/blob/master/Include/Roffild/OrderData.mqh 出现了, 但这个类正好作为 "父类 "使用。
OpenCL只需要用于训练网络。对于网络或森林已经被训练过的最终计算,OpenCL是没有用的,因为将数据传输到显卡的时间非常长。而从网络或森林中检索数据的算法确实非常简单,CPU处理得非常好。
一般来说,Spark不仅在单台计算机的核心之间进行平行计算,而且还可以使用整个计算机网络。它是服务器间计算的一个标准。例如,我通常在亚马逊上以每小时0.25美元的价格购买32个核心,以快速获得一个完成的随机森林。
这个网络的问题是,没有明确的标准来选择有效的样本。例如,在识别水果图片时,你可以清楚地识别哪里是苹果,哪里是橘子。对于价格图表,没有100%的选择标准,因此也没有100%的再培训标准。
https://github.com/Roffild/RoffildLibrary/blob/master/Experts/Roffild/Alglib_RandomForest.mq5
随机森林对噪声的依赖性较小,在不同的采样条件下更经常返回相同的结果。例如,在图中
那是因为在NS中你需要拾取建筑,而森林总是以同样的方式工作,是的 :)
而要挑起一个架构,你应该映射多维特征空间,弄清楚哪一层负责什么,或者只是用直觉。但是,从理论上讲,正确地捡起NS,应该会有更好的结果,而且在超配方面也是如此。
还不是所有的图书馆,谢谢,我将进一步研究。
另一本有用的俄语书。
另一本有用的俄语书。
Keras在你看来如何?它是否比达奇更好,或者能力相同?用同样的数据、epochs的数量等来学习是否更快?
没有比较。Kegas - 在结构、培训和定制方面有无限的可能性,有大量的例子和详细的文档。另外,关于TensorFlow - 它的发展速度非常快(已经是1.8)。很明显,这有其优点和缺点。它没有那么快学会,你需要做一些额外的体操。要优化超参数是很困难的。否则这就是今后的主要重点。
祝好运
我还没有和R交过朋友,所以我很想看看你想出了什么办法!
对每周的TF进行了分解,1400条(几乎是终端中所有可用的历史)。
这里不显示日期,所以不是很方便。我将不得不在Plot或指标中重写它,以便在图表中进行标记。
在较小的mods上有更明显的tscc。而最大的一个是+-14年(28年中的2个半周期),分为4个7年周期(如我所说)。此外,上一个7年周期在今年年初结束(大致如此),这表明在更早的日期教授网格没有什么意义了
中间的周期没有那么明显
而不是绞尽脑汁,我们只需要把所有的mods都弄到NS中去,另外它们也不相干。
然后它将认识到不同的周期,也许不是,一个哲学问题,因为你这样做将是:)