Il modello di regressione di Sultonov (SRM) - che pretende di essere un modello matematico del mercato. - pagina 40

 
HideYourRichess:
La domanda sacra è: sono stati fatti molti soldi con questa regressione? Non è già ora di pensarci?
Prima devi sviluppare una convinzione in qualche tipo di regressione, e poi viene la fase del fare soldi.
 


Roman.:

descrivi brevemente quali sono le differenze dalla regressione lineare...

yosuf 12.07.2012 09:21
La regressione lineare (LR) si applica quando si assume l'esistenza di una dipendenza lineare del prezzo dal tempo, che chiaramente non è il caso in generale, anche se in un intervallo di tempo limitato una dipendenza lineare può a volte apparire, ma cercare di applicare questa assunzione porterà a deviazioni significative in futuro. Siamo quindi costretti ad applicare la regressione non lineare, alla quale appartiene RMS che, come mostrato in precedenza, copre senza ambiguità anche il caso della regressione lineare.

Aggiunta a quanto sopra:

Ecco un esempio del trattamento LR e RMS dei risultati della simulazione di serie discrete usando l'algoritmo iterativo https://forum.mql4.com/ru/50108/page5:

 
yosuf:


Romano..:

Potrebbe descrivere brevemente quali sono le differenze dalla regressione lineare...

yosuf 12.07.2012 09:21
La regressione lineare (LR) si applica quando si assume l'esistenza di una relazione lineare tra il prezzo e il tempo, che chiaramente non è osservato nel caso generale, anche se in un intervallo di tempo limitato a volte può apparire la dipendenza lineare, ma cercando di utilizzare questa assunzione porterà a deviazioni significative in futuro. Siamo quindi costretti ad applicare la regressione non lineare, alla quale appartiene RMS che, come mostrato in precedenza, copre senza ambiguità anche il caso della regressione lineare.

Addendum a quanto sopra:

Ecco un esempio di LR e RMS che elaborano i risultati di una simulazione di serie discreta utilizzando l'algoritmo iterativo https://forum.mql4.com/ru/50108/page5, da cui si può vedere che LR porta il ricercatore oltre il possibile dominio di apparizione dei risultati:


Grazie, Yusuf. Io stesso leggerò di più nelle fonti.

 
avatara:

I meriti del modello di Sultonov possono e devono includere l'ottimalità in senso lato al numero di gradi di libertà. il numero di parametri del modello è fissato senza perdita di precisione.

chi discute? i polinomi ce l'hanno?

;)

In RMS, alla derivazione (18), uno dei problemi della statistica applicata, relativo alla definizione dei parametri della distribuzione Gamma, è risolto anche nella forma delle relazioni (12-14), cioè: http://www.aup.ru/books/m163/2_2_1.htm

"Nella maggior parte dei casi non ci sono soluzioni analitiche, è necessario applicare metodi numerici per trovare la GMD. Questo è il caso, per esempio, dei campioni di una distribuzione Gamma o di una distribuzione Weibull-Gnedenko. In molti lavori, il sistema di equazioni di massima verosimiglianza viene risolto con qualche metodo iterativo ([8], ecc.) o la funzione di verosimiglianza del tipo (8) viene direttamente massimizzata (vedi [9], ecc.).

Tuttavia, l'applicazione dei metodi numerici genera numerosi problemi. La convergenza dei metodi iterativi richiede una giustificazione. In un certo numero di esempi, la funzione di verosimiglianza ha molti massimi locali, e quindi le procedure iterative naturali non convergono [10]. Per i dati delle prove di fatica dell'acciaio ferroviario VNII, l'equazione di massima verosimiglianza ha 11 radici [11]. Quale degli undici usare come stima del parametro?

Come conseguenza delle difficoltà di cui sopra, cominciarono ad apparire lavori sulla dimostrazione della convergenza di algoritmi per trovare stime di massima verosimiglianza per specifici modelli di probabilità e algoritmi specifici. Un esempio è l'articolo [12].

Tuttavia, la prova teorica della convergenza di un algoritmo iterativo non è tutto. Si pone la questione di una scelta ragionevole del momento in cui fermare il calcolo per raggiungere la precisione richiesta. È irrisolto nella maggior parte dei casi.

Ma non è tutto. L'accuratezza del calcolo deve essere correlata alla quantità di campionamento - più grande è, più accurate devono essere le stime dei parametri - altrimenti non si può parlare della validità di un metodo di valutazione. Inoltre, all'aumentare della dimensione del campione, è necessario aumentare il numero di cifre utilizzate in un computer e passare da calcoli a singola a doppia precisione e così via, sempre per raggiungere la coerenza delle stime.

Così, in assenza di formule esplicite per le stime di massima verosimiglianza, ci sono una serie di problemi computazionali nel trovare l'OLS. Gli specialisti della statistica matematica si permettono di ignorare tutti questi problemi quando discutono di PMO in termini teorici. La statistica applicata, tuttavia, non può ignorarli. I problemi rilevati mettono in dubbio la fattibilità dell'uso pratico delle armi di distruzione di massa.

Non c'è bisogno di assolutizzare l'ADM. Oltre a loro, ci sono altri tipi di stime che hanno buone proprietà statistiche. Esempi sono gli stimatori a passo singolo (stimatori SSE).

Nella statistica applicata, sono stati sviluppati molti tipi di stime. Citiamo gli stimatori quantili. Si basano su un'idea simile al metodo dei momenti, solo che invece di momenti campionari e teorici vengono equiparati i quantili campionari e teorici. Un altro gruppo di stimatori si basa sull'idea di minimizzare la distanza (indice di differenza) tra i dati empirici e l'elemento della famiglia parametrica. Nel caso più semplice, si minimizza la distanza euclidea tra gli istogrammi empirici e teorici, o più precisamente i vettori composti dalle altezze delle barre dell'istogramma"

Ora questi problemi per i parametri della distribuzione Gamma sono risolti analiticamente sotto forma di relazioni (12-14) https://www.mql5.com/ru/articles/250 e non è necessario cercare metodi per la loro valutazione numerica. Si dovrebbe suggerire di introdurli nel GOST come nel caso della distribuzione binomiale (da lì): "Per questo motivo nel GOST 11.010-81 si usano stime imparziali per la stima dei parametri della distribuzione binomiale negativa ma non OMR [7]. Da quanto detto segue che si può - se si può - preferire a priori le OMP ad altri tipi di stimatori solo nella fase di studio del comportamento asintotico degli stimatori".

 
yosuf:
Ora mi dica lei stesso, mettendosi la mano sul cuore, se la previsione che ha fatto e dato il 10.07.12. alle 19.14 https://forum.mql4.com/ru/50108/page20 in una situazione completamente non ovvia è pienamente corretta o no?

A questo punto, una parte della previsione è stata confermata (se ho capito bene il significato dell'indicatore). Tuttavia, è solo una previsione, e non è sufficiente per trarre conclusioni.
Inoltre, non è chiaro come impostare SL e TP, che è estremamente importante.
 
yosuf:


....

Ecco un esempio di LR e RMS che elaborano i risultati di una simulazione di serie discreta utilizzando l'algoritmo iterativo https://forum.mql4.com/ru/50108/page5, da cui si può vedere che LR porta il ricercatore oltre il possibile dominio di apparizione dei risultati:

Dov'è questa serie discreta? I punti gialli? Se i punti gialli, come ha fatto la regressione lineare ad andare così di traverso?
 
Integer:
Dov'è questa serie discreta? I punti gialli? Se i punti gialli, come ha fatto la regressione lineare ad andare così di traverso?

Ecco i dati da qui https://forum.mql4.com/ru/50108/page4, derivati in questo modo https://forum.mql4.com/ru/50108/page5, fate i conti e vedete voi stessi:

anonimo 10.07.2012 11:58 am.


Yusuf, prova a usare il tuo modello per continuare almeno dieci passi nella riga successiva:

101101100011101100011101100010010011100010011100010011101101100010010011100010011101101100

p.s. Questa serie non è casuale. Rivelerò l'algoritmo e gli ulteriori valori della serie dopo aver ricevuto la vostra previsione.

xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294

 
yosuf:

Ecco i dati da qui https://forum.mql4.com/ru/50108/page4, ottenuti in questo modo https://forum.mql4.com/ru/50108/page5, fate i conti e vedete voi stessi:

xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294


Mi scusi, ma non sembra essere in grado di rispondere alla domanda più elementare? Rileggi la mia domanda e rispondi.
 
La seconda colonna è Yi? Lui?
 
Integer:
Dov'è questa fila discreta? I punti gialli? Se i punti gialli, come ha fatto una regressione lineare ad andare così di traverso?
Sì, punti gialli.