Le modèle de régression de Sultonov (SRM) - qui prétend être un modèle mathématique du marché. - page 40
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
La question sacrée est de savoir si cette régression a permis de gagner beaucoup d'argent. N'est-il pas déjà temps d'y penser ?
Roman. :
vous décrivez brièvement quelles sont les différences avec la régression linéaire...
yosuf 12.07.2012 09:21
La régression linéaire (LR) s'applique lorsque vous supposez l'existence d'une dépendance linéaire du prix par rapport au temps, ce qui n'est manifestement pas le cas en général, bien que dans un intervalle de temps limité une dépendance linéaire puisse parfois apparaître, mais essayer d'appliquer cette hypothèse conduira à des écarts importants dans le futur. Nous sommes donc obligés d'appliquer la régression non linéaire, à laquelle appartient RMS, et, comme nous l'avons montré précédemment, elle couvre sans ambiguïté le cas de la régression linéaire également.
Complément à ce qui précède :
Voici un exemple de traitement LR et RMS de résultats de simulation de séries discrètes à l'aide de l'algorithme itératif https://forum.mql4.com/ru/50108/page5 :
Roman.. :
Pourriez-vous décrire brièvement quelles sont les différences entre la régression linéaire...
yosuf 12.07.2012 09:21
La régression linéaire (LR) s'applique lorsque vous supposez l'existence d'une relation linéaire entre le prix et le temps, ce qui n'est clairement pas observé dans le cas général, bien que dans un intervalle de temps limité peut parfois apparaître une dépendance linéaire, mais essayer d'utiliser cette hypothèse conduira à des écarts importants dans le futur. Nous sommes donc obligés d'appliquer la régression non linéaire, à laquelle appartient RMS, et, comme nous l'avons montré précédemment, elle couvre sans ambiguïté le cas de la régression linéaire également.
Addendum à ce qui précède :
Voici un exemple de LR et RMS traitant les résultats d'une simulation de séries discrètes à l'aide de l'algorithme itératif https://forum.mql4.com/ru/50108/page5, d'où l'on peut voir que LR emmène le chercheur au-delà du domaine d'apparition possible des résultats :
Merci, Yusuf. Je vais moi-même lire davantage dans les sources.
Les mérites du modèle de Sultonov peuvent et doivent inclure l'optimalité au sens large du nombre de degrés de liberté. le nombre de paramètres du modèle est fixé sans perte de précision.
qui argumente ? les polynômes l'ont-ils ?
;)
Dans RMS, à la dérivation (18), l'un des problèmes de statistique appliquée, lié à la définition des paramètres de la distribution Gamma, est également résolu sous la forme des relations (12-14), à savoir : http://www.aup.ru/books/m163/2_2_1.htm.
"Dans la plupart des cas, il n'existe pas de solutions analytiques, il est nécessaire d'appliquer des méthodes numériques pour trouver le GMD. C'est le cas, par exemple, des échantillons provenant d'une distribution Gamma ou d'une distribution Weibull-Gnedenko. Dans de nombreux travaux, le système d'équations du maximum de vraisemblance est résolu par une méthode itérative ([8], etc.) ou la fonction de vraisemblance de type (8) est directement maximisée (voir [9], etc.).
Cependant, l'application des méthodes numériques génère de nombreux problèmes. La convergence des méthodes itératives nécessite une justification. Dans un certain nombre d'exemples, la fonction de vraisemblance présente de nombreux maxima locaux, et les procédures itératives naturelles ne convergent donc pas [10]. Pour les données des essais de fatigue de l'acier ferroviaire du VNII, l'équation du maximum de vraisemblance a 11 racines [11]. Laquelle des onze valeurs doit être utilisée comme estimation du paramètre ?
En conséquence des difficultés susmentionnées, des travaux visant à prouver la convergence des algorithmes pour trouver des estimations du maximum de vraisemblance pour des modèles de probabilité spécifiques et des algorithmes spécifiques ont commencé à apparaître. L'article [12] en est un exemple.
Cependant, la preuve théorique de la convergence d'un algorithme itératif n'est pas tout. La question se pose d'un choix raisonnable du moment de l'arrêt du calcul en raison de l'obtention de la précision requise. Elle n'est pas résolue dans la plupart des cas.
Mais ce n'est pas tout. La précision des calculs doit être corrélée à la quantité d'échantillonnage - plus elle est grande, plus les estimations des paramètres doivent être précises - sinon on ne peut pas parler de la validité d'une méthode d'évaluation. En outre, à mesure que la taille de l'échantillon augmente, il est nécessaire d'augmenter le nombre de chiffres utilisés dans un ordinateur et de passer des calculs à simple précision à ceux à double précision, etc.
Ainsi, en l'absence de formules explicites pour les estimations du maximum de vraisemblance, il existe un certain nombre de problèmes de calcul associés à l'estimation des MCO. Les spécialistes des statistiques mathématiques se permettent d'ignorer tous ces problèmes lorsqu'ils discutent du PMO en termes théoriques. Les statistiques appliquées ne peuvent cependant pas les ignorer. Les problèmes constatés remettent en question la faisabilité de l'utilisation pratique des ADM.
Il n'y a pas besoin d'absolutiser les ADM. En dehors de ceux-ci, il existe d'autres types d'estimations qui ont de bonnes propriétés statistiques. Les estimateurs à une étape (estimateurs SSE) en sont des exemples.
En statistique appliquée, de nombreux types d'estimations ont été développés. Mentionnons les estimateurs quantiles. Ils sont basés sur une idée similaire à la méthode des moments, sauf qu'au lieu des moments de l'échantillon et des moments théoriques, les quantiles de l'échantillon et les quantiles théoriques sont mis en équation. Un autre groupe d'estimateurs est basé sur l'idée de minimiser la distance (indice de différence) entre les données empiriques et l'élément de la famille paramétrique. Dans le cas le plus simple, on minimise la distance euclidienne entre les histogrammes empiriques et théoriques, ou plus précisément, les vecteurs composés des hauteurs des barres de l'histogramme."
Maintenant, ces problèmes pour les paramètres de la distribution Gamma sont résolus analytiquement sous la forme des relations (12-14) https://www.mql5.com/ru/articles/250 et il n'est pas nécessaire de chercher des méthodes pour leur évaluation numérique. Il devrait être suggéré de les introduire dans GOST comme dans le cas de la distribution binomiale (de là) : "Pour cette raison, dans GOST 11.010-81, les estimations sans biais sont utilisées pour l'estimation des paramètres de la distribution binomiale négative, mais pas l'OMR [7]. Il résulte de ce qui a été dit que l'on peut - si l'on peut - préférer a priori les OMP aux autres types d'estimateurs uniquement au stade de l'étude du comportement asymptotique des estimateurs."
Dites-moi maintenant vous-même, en mettant la main sur votre cœur, si la prévision que vous avez faite et donnée le 10.07.12. à 19.14 https://forum.mql4.com/ru/50108/page20 dans une situation totalement non évidente est entièrement correcte ou non ?
A ce stade, une partie de la prévision a été confirmée (si je comprends bien la signification de l'indicateur). Toutefois, il ne s'agit que d'une seule prédiction, et cela ne suffit pas pour tirer des conclusions.
De plus, il n'est pas clair comment fixer le SL et le TP, ce qui est extrêmement important.
....
Voici un exemple de LR et RMS traitant les résultats d'une simulation de séries discrètes à l'aide de l'algorithme itératif https://forum.mql4.com/ru/50108/page5, d'où l'on peut voir que LR emmène le chercheur au-delà du domaine d'apparition possible des résultats :
Où se trouve cette série discrète ? Les points jaunes ? Si ce sont des points jaunes, comment la régression linéaire est-elle devenue si latérale ?
Voici les données d'ici https://forum.mql4.com/ru/50108/page4, dérivées de cette façon https://forum.mql4.com/ru/50108/page5, faites le calcul et voyez par vous-même :
anonyme 10.07.2012 11:58 am.
Yusuf, essayez d'utiliser votre modèle pour continuer au moins dix pas dans la rangée suivante :
101101100011101100011101100010010011100010011100010011101101100010010011100010011101101100
p.s. Cette série n'est pas aléatoire. Je révélerai l'algorithme et les autres valeurs de la série après avoir reçu votre prédiction.
xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294
Voici les données d'ici https://forum.mql4.com/ru/50108/page4, obtenues de cette façon https://forum.mql4.com/ru/50108/page5, faites le calcul et voyez par vous-même :
xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294
Excusez-moi, mais vous ne semblez pas être en mesure de répondre à la question la plus élémentaire ? Relisez ma question et répondez-y.
Où se trouve cette rangée discrète ? Les points jaunes ? S'il s'agit de points jaunes, comment une régression linéaire peut-elle devenir si latérale ?