交易中的机器学习:理论、模型、实践和算法交易 - 页 637

 
亚历山大_K2

:))))在这种情况下,应该向巫师寻求帮助 :))))

我唯一能说的是,正是非熵造成了趋势/平坦状态。趋势是过程的 "记忆",其分布的 "尾巴 "和非熵是巨大的,而在平坦状态下,它几乎为0。我只和自己打交道,但我明白这个鲜有研究的参数的重要性。

现在没有什么可以帮助它。趋势/舰队的转换,就像对晚餐的勺子,在时间上应该是好事。

红线是实际的。同义词-模型。在这个例子中,它已经晚了。底部图片,该模型已经迟到。


 
Mihail Marchukajtes:
兄弟们,这只是我们的一小步,但这将是整个人类的一大步.....。

米沙,我相信!我就知道!帅气的!你是最棒的!))。

 
Vizard_

米沙,我相信!我就知道!帅气的!你是最棒的!)))。

感谢你的支持 mate!!!!!我真的需要它。下次你对我讲话时,只要拼写正确就行了。 HandsomeGGGG!!!!听起来更扎实,....

 

让我们继续...

有两列数值,我计算了A列中事件的概率和B列中另一事件的概率。条件很简单,就是>0。我计算了A列中大于0的事件的数量,然后除以总行数,同样我计算了B列中数值的数量,然后除以总观察数。

接下来,使用我的数值,我如何计算条件概率????。考虑到我有两列,都有40行????

 
Mihail Marchukajtes:

好吧,我从另一个角度来谈。假设我有一个100个输入的输入集。我计算了每个输入的熵,得到的结果是从-10到10。问题:哪些投入更适合于采取????

假设我有10个低于零的输入,其余的高于零,但所有数值都在-10和10之间.....。

Mihail Marchukajtes:

还有......我没有办法计算出相互的信息....。或者说是条件概率,用于后续的熵和VI的计算。

谁能解释一下手指或更好的例子。

第一列40行输入变量

第二列40行输出....

一夜之间做了很多工作,以确定假说。偶然发现了这些东西,没办法。请帮助,我将对我的假设给出我的想法......


我没有研究过信息论,但对R中的熵有一些经验。

从本质上讲,熵越大,数据中的混乱程度越高。一个具有高熵的预测器与目标的关系相当差。反之,低熵表明预测者很容易从预测者中识别出来。

非熵是熵的反面,与熵相比,它没有带来新的知识,只是为了方便而引入。如果预测者的熵大,那么非熵就小。如果熵是小的,那么非熵就是大的。这就像热与冷、光与暗等,一个无缝地流向另一个。

但这还不是全部,还有交叉熵。这就是两个预测器在一起与目标的关系,交叉熵高就不好,低就好。在机器学习中,经常会出现这样的情况:两个具有高熵的预测器一起使用时,会产生低的交叉熵,这正是我们所需要的。即使每个预测因子本身可能与目标有不好的关联(两者的熵都很高),但它们一起可以击中靶心(交叉熵低)。因此,我们不能简单地分别测量每个预测器的熵,并根据估计值选择一个集合。你需要选择具有低交叉熵的整个预测器集合,例如我不看它们的熵是多少,而是单独看。

这里有一些例子--

1)具有高熵的预测器。根本就没有办法预测目标类。

2)具有低熵的预测器。如果你仔细观察,如果预测器的值从0到0.25或小于0.4,那么类值=1。否则,类=2。这是一个非常方便的预测器,可以在MO中使用。

3)两个预测器,每个都有很高的熵,模型永远无法只用第一个或只用第二个预测器来预测目标。但通过把它们画在一起(X轴是第一个的值,Y轴是第二个的值),我们可以立即看到,它们一起给出了关于目标类别的非常好的信息(两个预测器的符号相同=类别1,符号不同=类别2)。这是低交叉熵的一个例子。


 
Mihail Marchukajtes:

谢谢你的支持 Fellow!!!!!我真的需要它。下次称呼我时,请正确拼写。 HandsomeGGGGG!!!!这听起来是如此的坚实....

这就是为什么我们爱你,老师!他总是在那里,总是纠正我们。你是我们亲爱的人!))。

"米山宁的见证者。2018年2月。


 
尽管有责难,我仍将继续。条件概率的计算方法如下。第一列中满足条件的数据数量为19,第二列中为20。为了找到条件概率。我把19+20加起来,然后全部除以总条目数,即80(第一栏40,第二栏40)。而你必须除以概率....。如果我有A列-进入,B列-退出,那么要知道进入到退出的条件概率,你需要用总概率除以进入列的概率。这是正确的吗?
 
Mihail Marchukajtes:

再一次,一个问题。有八种模式的NS。在当前信号下,NS输出的熵值如下

5.875787568 -5.702601649 5.066989592 9.377441857 7.41065367 1.401022575 4.579082852 5.119647925

你想要哪一个?红色的?因为它有负熵,还是蓝色的?它更接近于零。我要说的是,这两个模型看起来方向不同,但我们知道,时间将证明谁是正确的....。最后,他们中的一个将获胜。谁在考虑这个问题?

总结我上面写的--你需要首先确定预测器组合的交叉熵,并选择交叉熵较低的预测器组合。奇怪的是,它是负数,在我的情况下,它只是无限大到零,但不管怎样,那就取最负的那个。

在我看来,NS输出的熵作为对神经元本身的估计是不好的。你可以调整网络的输出,在100%的情况下给出一个正确的答案,它的熵会很低,但它可能有很大的过拟合。过度喂养是不好的。

 

重点是,我发现了一个Excel的插件,可以计算熵。我以我想要的方式完成了它,没有改变计算的逻辑,因此我有这个问题。解释一下这些独眼巨人的计算方法,这里发生了什么。他们到底是做什么的,我明白,但在其他一些方面....。HM....

对于ActiveSheet.Range(Data1)中的每个值

X(I)=价值

Nn = Nn + 价值

I = I + 1

下一个价值

在这个循环中,写出了数组X,也有一个累积的总和,就像没有问题一样,但进一步....。

对于I=1至N

X(I) = X(I) / Nn

下一页 I

我们用数组的 每个元素 除以数值的总和,我怀疑这只是频率搜索。Right????

好吧......我想我明白了,我们需要把所有的频率加起来,才能找到概率。对吗?

 
交易员博士

总结一下我上面写的,首先确定预测器组合的交叉熵,然后取交叉熵较低的一个。奇怪的是,它是负数,在我的情况下,它只是无限大到零,但不要紧,那就取最负的那个。

在我看来,NS输出的熵作为对神经元本身的估计是不好的。你可以调整网络的输出,在100%的情况下给出一个正确的答案,它的熵会很低,但它可能有很大的过拟合。过度喂养是不好的。

要找到交叉熵,你首先需要找到两个事件的条件熵,这就是我现在正在做的事....

而模型熵的估计需要在模型处于OOS的时候进行。在发出信号后,我们可以计算这个信号的熵,并利用它来得出结论。信号的熵值增加了。他妈的,它倒下了--它是我们的蒸汽机车....