交易中的机器学习:理论、模型、实践和算法交易 - 页 1978

 
Maxim Dmitrievsky:

它确实更好用,但如果RL也被拧进去,那就太难了)。

一般来说,传统的反向传播网,如mlp,并不适合时间序列,根本不适合。至少你需要RNN

它们适合于固定的)简单的逻辑只适合于简单的工作。对于真正的等级,需要一个复杂的算法)。

 
Valeriy Yastremskiy:

对于固定的,他们是好的)简单的逻辑只为简单的工作。对于真正的系列,需要一个复杂的大脑)。

任何非稳态序列都可以表示为任意长度的稳态序列之和。但任意长度在预测问题上是一个大问题。

 
Valeriy Yastremskiy:

任何非稳态序列都可以表示为任意长度的稳态序列之和。任意长度是预测问题中的一个大问题。

这是一个很大的误解。

 
Valeriy Yastremskiy:

对于固定的,他们是好的)简单的逻辑只为简单的工作。对于现实世界的系列,你需要一个复杂的大脑)

取决于信噪比。在某种程度上,他们停止了工作,因为他们没有考虑到非黑暗性。

粗略地说,规律性在嘈杂的系列上消失了(明显的循环),但无标记性被保留了(如果过程是有记忆的)。普通的mlp抓不到它,只有RNN才抓得到。

因此,mlp、boosting、forest等只适用于无记忆的马尔科夫过程。

以语言为例:每一种语言都有一定程度的熵,即语言中的词汇交替。在高水平上,讲话会变得不连贯,例如,如果有很多寄生词,或者如果你只是彼得-科诺夫。那么你只能从上下文中抓住它,这需要对过去的句子(模式)进行记忆。

例如,你读了我的句子,却不知道彼得是谁,也不知道我是在什么情况下写的。你对过去的事件没有记忆,不能把它们与现在的措辞联系起来,所以你得出了错误的结论。

 
Maxim Dmitrievsky:

取决于信噪比。在某种程度上,他们停止了工作,因为他们没有考虑到非黑暗性。

粗略地说,在嘈杂的行中,规则性消失了(明显的周期),但非标记性被保留了(如果过程是有记忆的)。普通的mlp抓不到它,只有RNN才抓得到。

因此,mlp、boosting、forest等只适用于无记忆的马尔科夫过程。

以语言为例:每一种语言都有一定程度的熵,即语言中的词汇交替。在高水平上,讲话会变得不连贯,例如,如果有很多寄生词,或者如果你只是彼得-科诺夫。那么你只能从上下文中抓住它,这需要对过去的句子(模式)进行记忆。

例如,你读了我的句子,却不知道彼得是谁,也不知道我是在什么情况下写的。你对过去的事件没有记忆,不能把它们与现在的措辞联系起来,所以你会得出错误的结论。

信号/噪声当然是决定性的。在强噪声的情况下,弱的规律性将被丢失,你只是看不到它们。但在价格序列的情况下,噪音不是从外部产生的。噪声是逐渐消失的规律性,或者是弱的,即使是强的。但这并不改变其本质。可以检测到的规律性,其余的是噪音。

 
Oleg avtomat:

这是一个很大的误解。

当然不是为任何完全意义上的任何。这里不包括白噪声,但我们也不考虑它。最初,一个系列是由不同的规律性组成的,它们有不同的振幅和长度,所以我们有一个系列,其中有噪音和规律性。

 
Valeriy Yastremskiy:

信号/噪声当然是决定性因素。如果有大量的噪音,微弱的规律性就会丢失,它们根本无法被看到。但在价格序列的情况下,噪音不是由外部产生的。噪声是逐渐消失的规律性,或者是弱的,即使是强的。但这并不改变其本质。可以检测到的模式,其余的是噪音。

如果噪声多于信号,总是过量或不足(当使用验证采样时)。因为不存在稳定的模式。

而当有大量的噪音和很少的模式时,就可以尝试分离出信号。

真的很难理解为什么一连串的噪音图案包含一个信号,而一个图案却没有。我们可以简单地增加特征的数量(历史被反馈)。但是,不,它不是那样工作的。噪声对噪声产生噪声。它需要更微妙的上下文提取,由于某些原因,它在那里工作。一句话,魔术。

 
Maxim Dmitrievsky:

那么,当噪声大于信号时,总是过拟合或欠拟合(当使用验证采样时)。因为不存在稳定的模式。

但当有大量的噪音和少量的模式时,你就会尝试隔离信号

好吧,这就是所有概率论主题中所有搜索的重点,分离出一个模式并在它消失的时候抓住时机。而且通常问题较少,隔离成本较高)。

 
Maxim Dmitrievsky:


kind gentle polite))))

 
Valeriy Yastremskiy:

仁者见仁智者见智))))

我正在做一个完整的日志,它会告诉你他在做什么。

这样我们就能找出要改进的地方