Regresión Bayesiana - ¿Alguien ha hecho un EA utilizando este algoritmo? - página 39

 
-Aleks-:
Eso es lo que hay que pensar, para que los datos sean similares, hay que tomar un patrón, en mi opinión, y no sólo una ventana de n barras.
Estoy totalmente de acuerdo. Cuántas barras tomar para el análisis es el talón de Aquiles no sólo de las regresiones discutidas. Aunque no quiero calcular la regresión, sino las probabilidades utilizando la fórmula de Bayes. Por el momento, tomaré estúpidamente la ventana actual de n barras. Y en la fase de pruebas y ensayos, para la función de verosimilitud y las probabilidades a priori, tomaré los períodos de pico de volatilidad a pico de volatilidad. Suele ser el intervalo entre las noticias importantes.
 
Alexey Burnakov:
Hace poco discutí con unos colegas la historia y el desarrollo de la regresión lineal. Para resumir la historia, al principio había pocos datos y pocos predictores. Regresión lineal ordinaria manejada con algunos supuestos. Después, con el desarrollo de las tecnologías de la información, la cantidad de datos aumentó y el número de predictores podía superar fácilmente las decenas de miles. En estas condiciones, la regresión lineal ordinaria no servirá de nada: el exceso de aprendizaje. Por lo tanto, aparecieron versiones regularizadas, versiones robustas a los requisitos de las distribuciones, etc.
Esto es parcialmente correcto. La regularización L2 no ayuda a reducir el número de predictores en el modelo. La neurocomputación utilizaba inicialmente la regla de aprendizaje de Hebb, que permitía un crecimiento ilimitado de los pesos de las redes neuronales. Luego, al darse cuenta de que el cerebro tiene recursos limitados para crecer y mantener los pesos de las subunidades neuronales, se añadió la regularización L2 en los años 60 y 80. Esto permitió limitar las ponderaciones, pero todavía había mucha ponderación insignificante. Este no es el caso del cerebro. En el cerebro, las neuronas no están conectadas a todas las demás, aunque sea por pesos insignificantes. Sólo hay un número limitado de conexiones. Después, en la década de 2000, se introdujeron las regularizaciones L1 y L0 que permitían las conexiones descargadas. Multitud de científicos comenzaron a utilizar la programación lineal con regularización L1 para todo, desde la codificación de imágenes hasta los modelos neuronales que describían bastante bien los procesos cerebrales. Los economistas siguen estando por detrás del resto de las ciencias debido a su "arrogancia" (todo se ha inventado ya antes que nosotros) o simplemente a su escasa comprensión de las matemáticas.
 
Vladimir:
Es parcialmente correcto. La regularización L2 no ayuda a reducir el número de predictores en el modelo. En la neuroinformática, al principio se utilizaba la regla de aprendizaje de Hebb, que permitía un crecimiento ilimitado de los pesos de la red neuronal. Luego, al darse cuenta de que el cerebro tiene recursos limitados para crecer y mantener los pesos de las subunidades neuronales, se añadió la regularización L2 en los años 60 y 80. Esto permitió limitar las ponderaciones, pero todavía había mucha ponderación insignificante. Este no es el caso del cerebro. En el cerebro, las neuronas no están conectadas a todas las demás, aunque sea por pesos insignificantes. Sólo hay un número limitado de conexiones. Después, en la década de 2000, se introdujeron las regularizaciones L1 y L0 que permitían las conexiones descargadas. Multitud de científicos comenzaron a utilizar la programación lineal con regularización L1 para todo, desde la codificación de imágenes hasta los modelos neuronales que describían bastante bien los procesos cerebrales. Los economistas siguen estando por detrás del resto de las ciencias debido a su "arrogancia" (todo estaba ya inventado antes que nosotros) o simplemente a una mala comprensión de las matemáticas.
Sólo podría confundir L2 con pesos limitantes. Y es una regresión de cresta (Tikhonov). https://www.quora.com/What-is-the-difference-between-L1-and-L2-regularization

Pero a veces L1 se vuelve preferible también por la adición de penalizar los errores absolutos y los no cuadrados. los cuadrados de los errores pueden dar colas demasiado largas, es decir, en el caso de las cotizaciones que tienen colas pesadas, la adición de los cuadrados de los residuos puede tener un mal efecto en la calidad del modelo. Bueno, eso es sólo hablar.
 
Vladimir:
Los economistas siguen estando a la zaga del resto de las ciencias debido a su "arrogancia" (todo se ha inventado ya antes que nosotros) o simplemente a una mala comprensión de las matemáticas.
Sí. He hablado personalmente con un gestor (gestor de swd) que antes trabajaba para un corredor de bolsa. Dijo que los incrementos de precio se consideran normales y ya está. Se utilizan los métodos y los conceptos erróneos del siglo pasado. Le dije que allí no hay normalidad. No pasa ni una sola prueba. Ni siquiera sabe de qué estamos hablando. Pero no es un matemático empedernido, sino un director de desarrollo.
 
Tengo la sospecha de que la línea indicadora (si no se profundiza demasiado, la misma mashka, por ejemplo) es aproximadamente una línea de regresión. Al menos, es una aproximación
 
Alexey Burnakov:
Sí. He hablado personalmente con un gestor (gestor de swd) que trabajaba para un corredor de bolsa. Dijo que los incrementos de precio se consideran normales y ya está. Se utilizan los métodos y los conceptos erróneos del siglo pasado. Le dije que allí no hay normalidad. No pasa ni una sola prueba. Ni siquiera sabe de qué estamos hablando. Pero no es un matemático empedernido, sino un director de desarrollo.
¿Y qué pasa si no hay normalidad? Incluso algún director de desarrollo escribe sobre ello, Vladimir lo hizo aquí. ¿Cómo puedes utilizar la regresión si no entiendes sus principios o su significado? Caminas como un zombi en la noche oscura con esta normalidad/normalidad. Puede ser una distribución en cubos, cuadrados, zigzags o en forma de cuadro de Repin. La capacidad de predecir la regresión no depende de ella.
 
Dmitry Fedoseev:
¿Y qué pasa si no hay normalidad? Incluso el jefe de algún desarrollo escribe sobre ello, Vladimir lo hizo aquí. ¿Cómo se puede utilizar la regresión si no se entienden sus principios o su significado? Caminas como un zombi en la noche oscura con esta normalidad/normalidad. Puede ser una distribución en cubos, cuadrados, zigzags o en forma de cuadro de Repin. La capacidad de predecir la regresión no depende de ello.
Por eso lo hace. Es más fácil pensar por la noche. Incluso los ejecutivos lo saben. )
 
Yuri Evseenkov:
Totalmente de acuerdo. El número de barras que hay que analizar es el talón de Aquiles no sólo de las regresiones en cuestión. Aunque no quiero calcular la regresión, sino las probabilidades mediante la fórmula de Bayes. Por el momento, tomaré estúpidamente la ventana actual de n barras. Y en la fase de pruebas y ensayos, para la función de verosimilitud y las probabilidades a priori, tomaré los períodos de pico de volatilidad a pico de volatilidad. Suele ser el intervalo entre las noticias importantes.

¿Y la probabilidad expresará qué, la previsión de la siguiente barra, o el vector de movimiento de las siguientes barras?

 
En general, deberíamos definir primero el objetivo de la regresión: ¿encontrar una curva que describa con mayor precisión la porción de mercado seleccionada, o predecir la posición futura de los precios? ¿Cómo puede la calidad de la aproximación determinar la precisión de la previsión?
 
Vasiliy Sokolov:
En primer lugar, debemos decidir el objetivo de la construcción de la regresión: ¿elegir una curva que describa con mayor precisión el bloque de mercado seleccionado, o predecir la posición futura de los precios? ¿Cómo puede la calidad de la aproximación determinar la precisión de la previsión?

¿Y cómo se puede construir una curva que sea lo más precisa posible para describir el pasado y lo más exacta posible para predecir el futuro?

¿O cómo se puede predecir el futuro sin analizar el pasado?

La aproximación es el análisis del pasado