交易中的机器学习:理论、模型、实践和算法交易 - 页 472

 
马克西姆-德米特里耶夫斯基


换句话说,mt5中的所有东西都还没有经过测试 :)

我不明白这一点。( 为什么要尝试已经在MT中的东西?

如果有一个TC概念,我们就拿起一个工具包。如果MT有,而且与系统的其他部分互动良好,我们就使用它。它的互动性很差--我们使用外部软件。

仅仅为了使用现有的MT功能而来回发送信息,这根本就不是razzo。

 
尤里-阿索连科

我不明白这一点。( 为什么要尝试已经在MT中的东西?

如果有一个TC概念,我们就拿起一个工具包。如果MT有,而且与系统的其他部分互动良好,我们就使用它。它的互动性很差--我们使用外部软件。

为了使用现有的MT功能而来回发送信息是没有用的。

因此,从一开始就没有一个现成的概念,一切都随心所欲,工具越多越好。
 
马克西姆-德米特里耶夫斯基
所以从一开始就没有一个现成的概念,一切都靠本能,工具箱越多越好。

我从一个概念开始,在一些软件(Excel、SciLab、MatLab、R--有时一起)上解决。在那里我用我的测试器进行了测试(我没有注意到真正的软件有什么明显的区别)。然后我把一部分转移到终端,其余的转移到C++/C#并连接外部库。

我的第一个系统(从2008年开始)是用VBA-Excel创建的,它们与终端的合作非常好。没有性能问题,即使有VBA的缓慢。无论如何,50毫秒的延迟,即使是1个TF,也不是时间。

 
注册一个智能信号更容易,但谁需要它呢?一般来说,....!!!!
 
马克西姆-德米特里耶夫斯基

顺便说一下,记得在你关于排序的文章中,你建议连续计算几个信号,在那里翻转......信号的叠加

我想出了一个有趣的解决方案,通过模糊逻辑来实现类似的东西,并将其建立在学习过程中......也许以后我会发布一些东西 :)


是的,是的,这只是从那篇文章.....。也许那里没有明确解释,但没有人取消分离的事实。

我们需要清楚地看到划分的好坏,如果模型是稳定地失去或获得,这已经是一个指标,主要是划分的稳定性,不是它的正确性,而是划分的稳定性.....。

 

桑桑尼茨。

请看关于 "过度疲劳"的有趣讨论。

祝好运

Understanding overfitting: an inaccurate meme in Machine Learning
  • www.kdnuggets.com
This post was inspired by a recent post by Andrew Gelman, who defined ‘overfitting’ as follows: Overfitting is when you have a complicated model that gives worse predictions, on average, than a simpler model. Preamble There is a lot of confusion among practitioners regarding the concept of overfitting. It seems like, a kind of an urban legend...
 
弗拉基米尔-佩雷文科

桑桑尼茨。

请看关于 "过度疲劳"的有趣讨论。

祝好运


我在这里写的和在实践中使用的所有东西都是某种技巧,以某种方式减少基本认知问题的影响,这个问题在这里被称为过拟合、过度训练。


模型过拟合的问题在原理上没有得到解决,在理论上也没有得到解决,而这一点在很长时间内都是众所周知的。模型总是某种近似,是对现实的某种粗化,是对外部世界的粗化。因此,一个模型总是反映出一个有一定误差的物体。这是任何模式的优势和劣势。因此,不彻底研究被建模的对象,就不可能创建一个模型。


如果我们拿着一份报价。

我们在塑造什么?

如果是随机森林,我们是自动搜索模式。

如果是GARCH,那么我们对报价的统计特征进行建模。

这样做总是会有错误。我在这里提出了某种启发式的建议,即这个错误不应该在时间序列的连续块上改变。如果该模型在下一个区块中真的给出了不同的误差,那么它就是过度训练(过度拟合),原则上不能使用。

对于随机森林,我发现如果你按照我的理解去掉嘈杂的预测因子,训练好的模型给出相同的误差要比有嘈杂的预测因子时长得多。但我不知道有什么解决方案可以创建一个适用于所有时代的模型,我也不需要这样做。我对在最新数据的输出上重新训练模型没有意见。但训练必须从检查噪声预测器开始--它们的集合随时间变化。也就是说,不仅是模型本身发生了变化,而且输入数据集也发生了变化。我是沿着时间序列做窗口运行的,所以在我的25个预测器中,有10-15个预测器的恒定抽样,这组的组成发生了变化,也就是说,有些东西变成了噪音,然后又变回来。误差非常稳定,范围从23%到27%=总是小于30%。如果我的预测器的误差小于20%,我就不使用这个模型,而是等待。


PS。

从我所说的,你可以看到我对其他模型不感兴趣的原因。

 
桑桑尼茨-弗门科

我在这里写的和在实践中使用的所有东西都是某种技术,以某种方式减少认知的基本问题的影响,这里称为过度拟合、过度学习。


立场很明确。

好运。

 
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
Brain Computation Is Organized via Power-of-Two-Based Permutation Logic
  • www.frontiersin.org
Clearly, this is a daunting question. The human brain is estimated to have approximately 86 billion neurons (Herculano-Houzel, 2009), and each neuron has tens of thousands of synapses (Andersen, 1990), leading to over one hundred trillion synaptic connections. On top of this astronomical complexity, one needs to map each connection or neuron to...
 
作为一种理论,这很有趣。但实际上如何使用它呢?是否有什么软件可以使用?