El modelo de regresión de Sultonov (SRM): pretende ser un modelo matemático del mercado. - página 40

 
HideYourRichess:
La pregunta sagrada es: ¿se ha ganado mucho dinero con esta regresión? ¿No es hora de pensar ya en ello?
Primero hay que desarrollar una creencia en algún tipo de regresión, y luego viene la etapa de ganar dinero.
 


Roman.:

describe brevemente cuáles son las diferencias con la regresión lineal...

yosuf 12.07.2012 09:21
La regresión lineal (LR) se aplica cuando se asume la existencia de una dependencia lineal del precio con respecto al tiempo, lo que claramente no es el caso en general, aunque en un intervalo de tiempo limitado a veces puede aparecer una dependencia lineal, pero tratar de aplicar esta suposición llevará a desviaciones significativas en el futuro. Por lo tanto, nos vemos obligados a aplicar la regresión no lineal, a la que pertenece el RMS, y que, como se ha demostrado anteriormente, cubre sin ambigüedad el caso de la regresión lineal también.

Además de lo anterior:

He aquí un ejemplo del tratamiento LR y RMS de los resultados de la simulación de series discretas mediante el algoritmo iterativo https://forum.mql4.com/ru/50108/page5:

 
yosuf:


Romano..:

¿Podría describir brevemente cuáles son las diferencias con la regresión lineal...

yosuf 12.07.2012 09:21
La regresión lineal (LR) se aplica cuando se asume la existencia de una relación lineal entre el precio y el tiempo, lo que evidentemente no se observa en el caso general, aunque en un intervalo de tiempo limitado a veces puede aparecer una dependencia lineal, pero tratar de utilizar este supuesto conducirá a desviaciones significativas en el futuro. Por lo tanto, nos vemos obligados a aplicar la regresión no lineal, a la que pertenece el RMS, y que, como se ha demostrado anteriormente, cubre sin ambigüedad el caso de la regresión lineal también.

Adenda a lo anterior:

He aquí un ejemplo de LR y RMS procesando los resultados de una simulación de series discretas mediante el algoritmo iterativo https://forum.mql4.com/ru/50108/page5, del que se desprende que LR lleva al investigador más allá del posible dominio de aparición de los resultados:


Gracias, Yusuf. Yo mismo leeré más en las fuentes.

 
avatara:

Los méritos del modelo de Sultonov pueden y deben incluir la optimización en un sentido amplio del número de grados de libertad. el número de parámetros del modelo se fija sin pérdida de precisión.

¿quién discute? ¿los polinomios lo tienen?

;)

En RMS, en la derivación (18), uno de los problemas de la estadística aplicada, relativo a la definición de los parámetros de la distribución Gamma, se resuelve también en forma de relaciones (12-14), a saber: http://www.aup.ru/books/m163/2_2_1.htm

"En la mayoría de los casos no hay soluciones analíticas, es necesario aplicar métodos numéricos para encontrar la DGM. Este es el caso, por ejemplo, de las muestras de una distribución Gamma o de una distribución Weibull-Gnedenko. En muchos trabajos, el sistema de ecuaciones de máxima verosimilitud se resuelve mediante algún método iterativo ([8], etc.) o se maximiza directamente la función de verosimilitud del tipo (8) (véase [9], etc.).

Sin embargo, la aplicación de métodos numéricos genera numerosos problemas. La convergencia de los métodos iterativos requiere una justificación. En varios ejemplos, la función de verosimilitud tiene muchos máximos locales y, por tanto, los procedimientos iterativos naturales no convergen [10]. Para los datos de las pruebas de fatiga del acero ferroviario VNII, la ecuación de máxima verosimilitud tiene 11 raíces [11]. ¿Cuál de los once utilizar como estimación del parámetro?

Como consecuencia de las dificultades anteriores, empezaron a aparecer trabajos sobre la demostración de la convergencia de los algoritmos para encontrar estimaciones de máxima verosimilitud para modelos de probabilidad específicos y algoritmos específicos. Un ejemplo es el documento [12].

Sin embargo, la prueba teórica de la convergencia de un algoritmo iterativo no lo es todo. La cuestión que se plantea es la elección razonable del momento en que se detiene el cómputo para alcanzar la precisión requerida. En la mayoría de los casos no está resuelto.

Pero eso no es todo. La precisión del cálculo debe estar correlacionada con la cantidad de muestreo -cuanto mayor sea, más precisas serán las estimaciones de los parámetros-, de lo contrario no podemos hablar de la validez de un método de evaluación. Además, a medida que aumenta el tamaño de la muestra, es necesario aumentar el número de dígitos utilizados en un ordenador y pasar de los cálculos de precisión simple a los de precisión doble, etc., también en aras de lograr la coherencia de las estimaciones.

Por lo tanto, en ausencia de fórmulas explícitas para las estimaciones de máxima verosimilitud, hay una serie de problemas computacionales para encontrar el OLS. Los especialistas en estadística matemática se permiten ignorar todos estos problemas cuando discuten la OMP en términos teóricos. Sin embargo, las estadísticas aplicadas no pueden ignorarlas. Los problemas señalados ponen en duda la viabilidad del uso práctico de las ADM.

No es necesario absolutizar las armas de destrucción masiva. Aparte de ellos, hay otros tipos de estimaciones que tienen buenas propiedades estadísticas. Algunos ejemplos son los estimadores de un solo paso (estimadores SSE).

En la estadística aplicada se han desarrollado muchos tipos de estimaciones. Mencionemos los estimadores cuantílicos. Se basan en una idea similar al método de los momentos, sólo que en lugar de los momentos muestrales y teóricos se equiparan los cuantiles muestrales y teóricos. Otro grupo de estimadores se basa en la idea de minimizar la distancia (índice de diferencia) entre los datos empíricos y el elemento de la familia paramétrica. En el caso más simple, se minimiza la distancia euclidiana entre los histogramas empíricos y teóricos, o más precisamente, los vectores compuestos por las alturas de las barras del histograma"

Ahora estos problemas para los parámetros de la distribución Gamma se resuelven analíticamente en forma de relaciones (12-14) https://www.mql5.com/ru/articles/250 y no es necesario buscar métodos para su evaluación numérica. Habría que sugerir que se introduzcan en GOST como en el caso de la distribución binomial (a partir de ahí): "Por esta razón, en GOST 11.010-81 se utilizan estimaciones insesgadas para la estimación de los parámetros de la distribución binomial negativa, pero no OMR [7]. De lo dicho se deduce que se puede -si se puede- preferir a priori los OMP a otros tipos de estimadores sólo en la fase de estudio del comportamiento asintótico de los estimadores."

 
yosuf:
Ahora dígame usted mismo, poniéndose la mano en el corazón, si el pronóstico que hizo y dio el 10.07.12. a las 19.14 https://forum.mql4.com/ru/50108/page20 en una situación que no es nada evidente, es completamente correcto o no.

En este momento, se ha confirmado parte del pronóstico (si entiendo bien el significado del indicador). Sin embargo, es sólo una previsión, y eso no es suficiente para sacar ninguna conclusión.
Además, no está claro cómo establecer el SL y el TP, que es extremadamente importante.
 
yosuf:


....

He aquí un ejemplo de LR y RMS procesando los resultados de una simulación de series discretas mediante el algoritmo iterativo https://forum.mql4.com/ru/50108/page5, del que se desprende que LR lleva al investigador más allá del posible dominio de aparición de los resultados:

¿Dónde está esta serie discreta? ¿Los puntos amarillos? Si los puntos amarillos, ¿cómo la regresión lineal se volvió tan lateral?
 
Integer:
¿Dónde está esta serie discreta? ¿Los puntos amarillos? Si los puntos amarillos, ¿cómo la regresión lineal se volvió tan lateral?

Aquí están los datos de aquí https://forum.mql4.com/ru/50108/page4, derivados de esta manera https://forum.mql4.com/ru/50108/page5, haz las cuentas y compruébalo tú mismo:

anónimo 10.07.2012 11:58 am.


Yusuf, intenta usar tu modelo para continuar al menos diez pasos en la siguiente fila:

101101100011101100011101100010010011100010011100010011101101100010010011100010011101101100

p.d. Esta serie no es aleatoria. Revelaré el algoritmo y otros valores de la serie después de recibir su predicción.

xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294

 
yosuf:

Aquí están los datos de aquí https://forum.mql4.com/ru/50108/page4, obtenidos de esta manera https://forum.mql4.com/ru/50108/page5, haz las cuentas y compruébalo tú mismo:

xi Yi Yn L
0,00000001 1,0000 0,00000001 -0,411673682
1,00000001 0,0000 0,071581228 -0,392656547
2,00000001 1,0000 0,075244112 -0,373639413
3,00000001 1,0000 0,09192784 -0,354622278
4,00000001 0,0000 0,130452259 -0,335605143
5,00000001 1,0000 0,192774 -0,316588009
6,00000001 1,0000 0,273940135 -0,297570874
7,00000001 0,0000 0,365335416 -0,27855374
8,00000001 0,0000 0,458061228 -0,259536605
9,00000001 0,0000 0,545051494 -0,240519471
10,00000001 1,0000 0,621835168 -0,221502336
11,00000001 1,0000 0,68638294 -0,202485201
12,00000001 1,0000 0,738521184 -0,183468067
13,00000001 0,0000 0,77925761 -0,164450932
14,00000001 1,0000 0,810202137 -0,145433798
15,00000001 1,0000 0,833148102 -0,126416663
16,00000001 0,0000 0,849810912 -0,107399529
17,00000001 0,0000 0,861691707 -0,088382394
18,00000001 0,0000 0,870027242 -0,06936526
19,00000001 1,0000 0,875792141 -0,050348125
20,00000001 1,0000 0,879728335 -0,03133099
21,00000001 1,0000 0,882385057 -0,012313856
22,00000001 0,0000 0,884159565 0,006703279
23,00000001 1,0000 0,885333612 0,025720413
24,00000001 1,0000 0,886103678 0,044737548
25,00000001 0,0000 0,886604772 0,063754682
26,00000001 0,0000 0,886928466 0,082771817
27,00000001 0,0000 0,887136159 0,101788951
28,00000001 1,0000 0,887268591 0,120806086
29,00000001 0,0000 0,887352546 0,139823221
30,00000001 0,0000 0,887405482 0,158840355
31,00000001 1,0000 0,887438693 0,17785749
32,00000001 0,0000 0,88745943 0,196874624
33,00000001 0,0000 0,887472321 0,215891759
34,00000001 1,0000 0,887480302 0,234908893
35,00000001 1,0000 0,887485223 0,253926028
36,00000001 1,0000 0,887488247 0,272943162
37,00000001 0,0000 0,887490099 0,291960297
38,00000001 0,0000 0,887491228 0,310977432
39,00000001 0,0000 0,887491916 0,329994566
40,00000001 1,0000 0,887492333 0,349011701
41,00000001 0,0000 0,887492585 0,368028835
42,00000001 0,0000 0,887492737 0,38704597
43,00000001 1,0000 0,887492829 0,406063104
44,00000001 1,0000 0,887492884 0,425080239
45,00000001 1,0000 0,887492916 0,444097373
46,00000001 0,0000 0,887492936 0,463114508
47,00000001 0,0000 0,887492948 0,482131643
48,00000001 0,0000 0,887492955 0,501148777
49,00000001 1,0000 0,887492959 0,520165912
50,00000001 0,0000 0,887492961 0,539183046
51,00000001 0,0000 0,887492963 0,558200181
52,00000001 1,0000 0,887492964 0,577217315
53,00000001 1,0000 0,887492964 0,59623445
54,00000001 1,0000 0,887492965 0,615251585
55,00000001 0,0000 0,887492965 0,634268719
56,00000001 1,0000 0,887492965 0,653285854
57,00000001 1,0000 0,887492965 0,672302988
58,00000001 0,0000 0,887492965 0,691320123
59,00000001 1,0000 0,887492965 0,710337257
60,00000001 1,0000 0,887492965 0,729354392
61,00000001 0,0000 0,887492965 0,748371526
62,00000001 0,0000 0,887492965 0,767388661
63,00000001 0,0000 0,887492965 0,786405796
64,00000001 1,0000 0,887492965 0,80542293
65,00000001 0,0000 0,887492965 0,824440065
66,00000001 0,0000 0,887492965 0,843457199
67,00000001 1,0000 0,887492965 0,862474334
68,00000001 0,0000 0,887492965 0,881491468
69,00000001 0,0000 0,887492965 0,900508603
70,00000001 1,0000 0,887492965 0,919525737
71,00000001 1,0000 0,887492965 0,938542872
72,00000001 1,0000 0,887492965 0,957560007
73,00000001 0,0000 0,887492965 0,976577141
74,00000001 0,0000 0,887492965 0,995594276
75,00000001 0,0000 0,887492965 1,01461141
76,00000001 1,0000 0,887492965 1,033628545
77,00000001 0,0000 0,887492965 1,052645679
78,00000001 0,0000 0,887492965 1,071662814
79,00000001 1,0000 0,887492965 1,090679948
80,00000001 1,0000 0,887492965 1,109697083
81,00000001 1,0000 0,887492965 1,128714218
82,00000001 0,0000 0,887492965 1,147731352
83,00000001 1,0000 0,887492965 1,166748487
84,00000001 1,0000 0,887492965 1,185765621
85,00000001 0,0000 0,887492965 1,204782756
86,00000001 1,0000 0,887492965 1,22379989
87,00000001 1,0000 0,887492965 1,242817025
88,00000001 0,0000 0,887492965 1,261834159
89,00000001 0,0000 0,887492965 1,280851294


Disculpe, pero parece que no es capaz de responder a la pregunta más elemental... Vuelve a leer mi pregunta y contesta.
 
La segunda columna es Yi? ¿A él?
 
Integer:
¿Dónde está esta fila discreta? ¿Los puntos amarillos? Si los puntos amarillos, ¿cómo una regresión lineal se volvió tan lateral?
Sí, puntos amarillos.