从理论到实践 - 页 365

 
那只猫--我告诉它暂时不要说话。我现在给他一个。请原谅,先生们,在直播中的家庭内部争吵。
 
Alexander_K:

绅士们!!!!!!!!!

就要结束了,不是吗?正如他们所说,喜剧结束了。

我向你保证,Erlang的流量是关键。

在这里,从字面上看,我刚刚检查了本周的AUDCAD报价。

1.没有时间间隔有助于均匀地阅读引文。同样,在M1、M5等项目上,也没有对称分布,甚至与正态或拉普拉斯的分布相差无几。不可能得到的,做你想做的。

2.当从简单的通量传递到300阶的Erlang通量时(类似M5),增量的拉普拉斯分布被自信地观察到。

我还没有进一步检查。

注意到。

薛定谔的猫。

指数式 读数可以去掉,还是仍然是先主后次的Erlang?

 
Maxim Dmitrievsky:

也就是说,指数式读数可以去掉吗,还是还是先主后次的Erlang?

事实证明,有可能设置一个高频发生器,其Erlang分布https://en.wikipedia.org/wiki/Erlang_distribution,在这些时间间隔内读取tick报价。更小的阶数可以不考虑--只从300开始观察到向拉普拉斯分布的过渡。

不幸的是,我不知道有这样一个与维纳过程相对的 "拉普拉斯过程"。但是,它仍然应该使这个问题更容易解决。

Erlang distribution - Wikipedia
Erlang distribution - Wikipedia
  • en.wikipedia.org
Erlang Parameters shape , rate (real) alt.: scale (real) Support PDF λ k x k − 1 e − λ x ( k − 1 ) ! {\displaystyle {\frac {\lambda ^{k}x^{k-1}e^{-\lambda x}}{(k-1)!}}} CDF γ ( k , λ x ) ( k − 1 ) ! = 1 − ∑ n = 0 k − 1 1 n ! e − λ x ( λ x ) n {\displaystyle {\frac {\gamma...
 
Alexander_K2:

事实证明,有可能一次性设置一个高频发生器,其Erlang分布https://en.wikipedia.org/wiki/Erlang_distribution,并在这些时间间隔内读取tick报价。更小的阶数可以不考虑--只从300开始观察到向拉普拉斯分布的过渡。

不幸的是,我不知道有这样一个与维纳过程相对的 "拉普拉斯过程"。但是,它仍然应该使这个问题更容易解决。

还有q-高斯分布,它在这里能不能有某种关联? 熵和一切都有一些东西,只是代码已经在那里了 :)

我还没有从这篇文章中理解到什么

 
当A_K2在摆弄Erlang流的时候,我们这里都已经有很久了)。我们采取分钟数据,例如Close,已经有大约90-100个订单的Erlang流量。而且所有的分配都在它们应该在的地方。有什么好想的呢? 我们需要摇动它。
 
Yuriy Asaulenko:

有了Close的会议记录,每个人都在工作。在这里,你是在与所有人竞争,甚至是与巴布亚人竞争。而在Erlang流中,你是孤独的,而且是用已知的量化函数的拉普拉斯分布。

 
Alexander_K2:

有了Close的会议记录,每个人都在工作。在这里,你是在与所有人竞争,甚至是与巴布亚人竞争。而在Erlang流中--你是孤独的,而且是用已知的量化函数的拉普拉斯分布。

(嗯,如果你把分布细化2-3%--你甚至不会注意到图上的这些错误)。在这里,你没有任何优势,甚至比不上巴布亚人)。

 
Alexander_K2:

有了Close的会议记录,每个人都在工作。在这里,你是在与所有人竞争,甚至是与巴布亚人竞争。而在Erlang流中,你是孤独的,而且是用拉普拉斯分布及其已知的量化函数。

拉普拉斯分布、作为埃朗分布的一个特例的指数 在k=1时、伽马分布、连续几何和简单泊松流的类似物以及威布尔分布的一个特例都有一个关键特征--缺乏记忆。拉普拉斯分布虽然倾向于正态分布,但其尾部更密集

 
Yuriy Asaulenko:
当A_K2在摆弄Erlang流的时候,我们都已经在这里呆了很久了)。我们采取分钟数据,例如Close,已经有大约90-100个订单的Erlang流量。而且所有的分配都在它们应该在的地方。有什么好想的呢? 我们需要摇动它。

你不会得到天文时间,它会转移,这是操作时间。

 
Novaja:

拉普拉斯分布,指数作为埃尔朗分布在k=1时的一个特例,伽马分布,连续几何和简单泊松流的类似物和威布尔分布的一个特例,具有无记忆 的关键特性。拉普拉斯分布虽然趋向于正态,但其尾部更密集

尾巴不是记忆。记忆是指下一个增量对前一个增量的依赖。

分布不带有丝毫关于记忆存在/不存在的信息--为此你必须看一下条件分布或自相关,它们本质上是一回事。

一个简单的例子:我可以对任何系列的梯度进行洗牌(随机交换梯度)。记忆可能出现,也可能不出现。但分布情况仍未改变。

遭受这个问题的公民,请谷歌和研究基本知识。否则,读你的文章是很可笑的。