苏尔托诺夫回归模型(SRM)--声称是市场的数学模型。 - 页 40

 
HideYourRichess:
神圣的问题是,是否通过这种倒退赚了很多钱?不是已经到了该考虑的时候了吗?
首先,你必须形成对某种回归的信念,然后是赚钱的阶段。
 


罗曼:

你简要介绍一下与线性回归区别是什么...

yosuf 12.07.2012 09:21
线性回归(LR)适用于当你假设存在价格对时间的线性依赖时,这显然不是一般的情况,虽然在有限的时间区间内有时会出现线性依赖,但试图应用这一假设将导致未来出现重大偏差。因此,我们不得不应用非线性回归,RMS属于非线性回归,而且如前面所示,它也毫不含糊地涵盖了线性回归的情况。

对上述内容的补充。

下面是一个使用迭代算法https://forum.mql4.com/ru/50108/page5,对离散系列模拟结果进行LR和RMS处理的例子。

 
yosuf:


罗曼..:

您能否简要介绍一下与线性回归的区别是什么?

yosuf 12.07.2012 09:21
当你假设价格和时间之间存在线性关系时,就会应用线性回归(LR),这在一般情况下显然是观察不到的,虽然在有限的时间区间内有时可以显示出线性关系,但试图使用这种假设会导致未来出现重大偏差。因此,我们不得不应用非线性回归,RMS属于非线性回归,而且,如前面所示,它也毫不含糊地涵盖了线性回归的情况。

对上述内容的补充。

这里有一个LR和RMS处理离散系列模拟结果的例子,使用迭代算法https://forum.mql4.com/ru/50108/page5,从中我们可以看出,LR把研究者带到了结果可能出现的领域之外。


谢谢你,优素福。我自己会在资料中阅读更多的内容。

 
avatara:

苏尔托诺夫模型的优点可以而且应该包括广义上对自由度数量的优化。模型参数的数量是固定的,不会损失准确性。

谁在争论?多项式有吗?

;)

在RMS中,在推导(18)时,应用统计学的一个问题,与伽马分布的参数定义有关,也以关系(12-14)的形式得到解决,即:http://www.aup.ru/books/m163/2_2_1.htm

"在大多数情况下,没有分析解,有必要应用数值方法来寻找GMD。例如,来自伽马分布或魏布尔-格尼登科分布的样本就是这种情况。在许多工作中,最大似然方程组是通过一些迭代方法解决的([8]等),或者直接将(8)型的似然函数最大化(见[9]等)。

然而,数值方法的应用产生了许多问题。迭代方法的收敛性需要论证。在一些例子中,似然函数有许多局部最大值,因此自然迭代程序不能收敛[10]。对于VNII铁路钢材疲劳测试数据,最大似然方程有11个根[11]。在11个参数中,哪一个作为参数估计?

由于上述困难,开始出现了证明为特定概率模型和特定算法寻找最大似然估计的算法收敛的工作。一个例子是论文[12]。

然而,一个迭代算法的收敛性的理论证明并不是全部。出现的问题是,由于要达到所需的精度,要合理选择停止计算的时刻。在大多数情况下,它是未解决的。

但这还不是全部。计算精度必须与抽样量相关--抽样量越大,必须找到更准确的参数估计值--否则我们就无法谈及一种评估方法的有效性。此外,随着样本量的增加,有必要增加计算机使用的数字,并从单精度计算转为双精度计算,等等,这也是为了实现估计的一致性。

因此,在没有明确的最大似然估计公式的情况下,在估计OLS时存在一些计算上的问题。数学统计学 的专家们在理论上讨论PMO时,允许自己忽略所有这些问题。然而,应用统计学不能忽视它们。所指出的问题使人们对实际使用大规模毁灭性武器的可行性产生怀疑。

没有必要将大规模毁灭性武器绝对化。除了它们之外,还有其他类型的估计,具有良好的统计特性。例子是单步估计器(SSE估计器)。

在应用统计学中已经开发了许多类型的估计。让我们提到量化估计器。它们是基于一种类似于矩量法的想法,只是将样本和理论矩量等同起来,而不是样本和理论量值。另一组估计器是基于最小化经验数据和参数族元素之间的距离(差异指数)的想法。在最简单的情况下,经验直方图和理论直方图之间的欧氏距离最小化,或者更准确地说,直方图条的高度组成的向量。"

现在,这些关于伽马分布参数的问题以关系(12-14)的形式得到分析解决https://www.mql5.com/ru/articles/250,没有必要去寻找它们的数字评估方法。应该建议像二项分布那样将它们引入GOST(从那里):"由于这个原因,在GOST 11.010-81中,无偏估计用于估计负二项分布的参数,而不是OMR[7]。从上述内容可以看出,只有在研究估计者的渐进行为阶段,人们才能--如果可以的话--先验地倾向于OMP而不是其他类型的估计者。"

 
yosuf:
现在你自己告诉我,把你的手放在你的心脏上,你在12年7月10日19点14分做出并给出的预言https://forum.mql4.com/ru/50108/page20,在一个根本不明显的情况下,是否完全正确?

在这个时间点上,部分预测已经得到确认(如果我正确理解该指标的含义)。然而,这只是一个预测,这还不足以得出任何结论。
另外,不清楚如何设置SL和TP,这一点极为重要。
 
yosuf:


....

这里有一个LR和RMS处理离散系列模拟结果的例子,使用迭代算法https://forum.mql4.com/ru/50108/page5,从中我们可以看出,LR把研究者带到了结果可能出现的领域之外。

这个离散系列在哪里?黄色的小点?如果是黄点,线性回归 怎么会变得如此偏激?
 
Integer:
这个离散系列在哪里?黄色的小点?如果是黄点,线性回归怎么会变得如此偏激?

这是来自这里的数据https://forum.mql4.com/ru/50108/page4,这样得出的https://forum.mql4.com/ru/50108/page5,自己算一下就知道了。

匿名 10.07.2012 11:58 am.


优素福,试着用你的模型继续至少十步到下一排。

101101100011101100011101100010010011100010011100010011101101100010010011100010011101101100

p.s. 这个系列不是随机的。在我收到你的预测后,我将揭示该系列的算法和进一步的价值。

xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294

 
yosuf:

这是来自这里的数据https://forum.mql4.com/ru/50108/page4,以这种方式获得的https://forum.mql4.com/ru/50108/page5,自己算一算就知道了。

xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294


对不起,但你似乎不能回答最基本的问题?再读一下我的问题,然后回答它。
 
第二列是Yi?他?
 
Integer:
这个离散行在哪里?黄色的小点?如果是黄点,线性回归怎么会有这么大的偏差?
是的,黄点。