Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 612

 
Yuriy Asaulenko:
No lo intentó, estudió)). Me alegro de que le haya gustado. (Debería leer más.) De hecho, ahorra mucho tiempo: no hay que reinventar las bicicletas, todo está inventado antes que nosotros.

Los predictores de entrada parecen convertirse en imágenes y la red se entrena con ellas.

Aquí.

 

Buen documento, vi este enlace en gotay hace un par de meses, no es tanto sobre el ML en sí como sobre los datos que utilizan, con una gran colección de enlaces a sitios, que es información muy valiosa, realmente valiosa.

 
Maxim Dmitrievsky:

Cambié a Wiener - me pregunto cuándo se acabarán esos libros :) él también intentaba básicamente hacer predicciones

Yo también estaba languideciendo de que todos los libros que tengo planeados no voy a tener tiempo de leerlos y durante 10 vidas, pero luego lo he mirado por otro lado, desde una parte positiva, mientras haya una motivación fisiológica para "darse un atracón" de lectura de literatura científica, Está claro que el cerebro no está en peligro de locura, y en serio, la respuesta en RANGE, poner en Excel, poner una calificación de la importancia, ordenados (periódicamente) y leer la parte superior más que no han leído y no se molestan más con la cantidad, sabiendo que usted lee el más importante.
 
elibrarius:

En la sección de pruebas, como la mayoría, el error está al borde del 50%. Pero al menos cuenta docenas de veces más rápido que Alglib. Si aquí el cálculo del modelo durante 40-100 minutos, el Alglib-e más de un día de espera para la misma estructura, no esperó y desactivó el cálculo.
Pero si ahora tengo que recoger modelos en el ciclo, me llevará mucho tiempo de nuevo.... También tengo que programarlo todo.
En general, esto es mucho tiempo, ya que no se pone límites de tiempo en el modus operandi.

Interesante - así que cavo)

Sorprendido. ¿Qué tipo de modelo es el que cuenta con más de una hora?

Deberían ser 1-2 minutos como máximo.

 

Bros, ¿cómo quieres conseguir un modelo en 1-2 minutos de optimización que sea relevante para un mercado tan complejo como forex????

En mi opinión, esto es un disparate lógico. Al fin y al cabo, la construcción de un modelo implica recursos computacionales que pueden traducirse en costes. Así que cada modelo tiene su valor en forma de recursos deducibles gastados en su creación. Y ahora una pregunta. ¿Quieres ganar dinero con modelos que cuestan centavos? Supongo que puedes ganar centavos, pero no más que eso.... IMHO

 

El enlace anterior era

No lo sé:

http://www.valuesimplex.com/articles/JPM.pdf

Y aquí hay una imagen de este libro, cuyo autor es un banco muy respetado:



¿Por qué nadie discute lo que aquí aparece como modelo de inestabilidad, excepto yo?

 
SanSanych Fomenko:

El enlace anterior era

tóxicos:

http://www.valuesimplex.com/articles/JPM.pdf

Y aquí hay una imagen de este libro, cuyo autor es un banco muy respetado:



¿Por qué nadie discute lo que aquí aparece como modelo de inestabilidad, excepto yo?

¿Qué es?
 
Mihail Marchukajtes:

Hermanos, ¿cómo queréis conseguir un modelo en 1-2 minutos de optimización que sea relevante para un mercado tan complejo como forex????

En mi opinión, esto es un disparate lógico. Al fin y al cabo, la construcción de un modelo implica recursos informáticos que pueden traducirse en costes. Así que cada modelo tiene su valor en forma de recursos deducibles gastados en su creación. Y ahora una pregunta. ¿Quieres ganar dinero con modelos que cuestan centavos? Supongo que puedes ganar centavos, pero no más que eso.... IMHO

No. Por lo que entendí era una cuestión de tiempo de entrenamiento, no de optimización. La optimización es de 20 a 30 minutos, por supuesto.
 
SanSanych Fomenko:

Para el comercio, la idea de la optimización del modelo (TS) parece muy cuestionable, porque cualquier optimización está buscando picos / valles, y no los necesitamos. Necesitamos, idealmente, mesetas planas, tan grandes como sea posible. Estas mesetas deberían tener una propiedad notable: los cambios en los parámetros del modelo NO deberían conducir a la evasión de la meseta.

Se trata de la optimización.

De hecho, aquí habría que añadir también el problema de la estabilidad de los parámetros del modelo que, si cambian, están dentro de un intervalo de confianza bastante estrecho (5%). Me parece que la estabilidad de los parámetros del modelo resulta de la situación en la que el rendimiento del modelo se encuentra en una cierta meseta y si de repente obtenemos un resultado muy bueno mientras probamos el modelo significa que hemos alcanzado el punto minimax, hemos conseguido una condición inestable que nunca se producirá en la práctica, además un stop-out se situará alrededor de este punto óptimo.

PS.

Por cierto, en el probador los desarrolladores han proporcionado esa posibilidad de buscar una meseta por colores. Personalmente, utilizo el probador como herramienta de acabado y tomo parámetros que se refieren a un cuadrado con cuadrados del mismo color alrededor. Esto es una clara expresión de mi concepto de "meseta".

En los Asesores Expertos del Mercado he visto a menudo que los parámetros buenos para el comercio forman mesetas en la función de optimización. Si hay MA o RSI o algún otro coeficiente en los parámetros, el cambio de un parámetro por un pequeño valor no afecta al resultado final.

Pero es lógico, la mayoría de los parámetros que hay se utilizan en la fórmula para calcular el indicador, por lo que un pequeño cambio sólo afectará ligeramente al resultado, que seguirá siendo calculado a los mismos precios.

Y en el aprendizaje automático, por el contrario, los parámetros pueden tener un efecto de avalancha en todo el curso del aprendizaje e incluso un pequeño cambio conduce a un resultado completamente diferente. Por ejemplo, el número de neuronas en una capa oculta - a medida que su número aumenta el número de pesos utilizados crecerá y la función para la inicialización de los pesos utilizando gpscp establecerá sus valores en un orden ligeramente diferente, lo que conducirá a un resultado diferente.
Cambiando algunos parámetros también se dibuja una meseta en la función de optimización, podemos estudiar para cada parámetro de forma suave o estocástica su influencia en la valoración final del modelo, y para los parámetros que influyen suavemente podemos utilizar el optimizador adicionalmente basado en las derivadas (funciones optim(method="L-BFGS-B") y optimize() en R)

 
SanSanych Fomenko:

El enlace anterior era

tóxicos:

http://www.valuesimplex.com/articles/JPM.pdf

Y aquí hay una imagen de este libro, cuyo autor es un banco muy respetado:



¿Por qué nadie discute lo que aquí aparece como modelo de inestabilidad, excepto yo?

Hablamos aquí del error en los datos de entrenamiento y del error en la predicción. La esencia del cuadro es que cuando se minimiza el error se obtiene un sobreentrenamiento y el objetivo de crear y ajustar el modelo es reducir este error a un valor óptimo en los nuevos datos (evitar el sobreentrenamiento).

Buena ilustración.