Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 614

 

¿Es posible empezar a aprender exactamente cómo operar? Al fin y al cabo, el riesgo de que pierda mi cuenta, del que no tengo ninguna duda, es muy alto.

 

Pero Micha ha prometido vencer a Java, así que pronto brillará.

Me pregunto por qué no Python? ¿Tal vez sea la misma R? No lo entiendo.
 
Dr. Trader:

A menudo he visto en EAs de Mercado que bueno para los parámetros de comercio forman una meseta en la función de optimización. Si, por ejemplo, hay MA o RSI en los parámetros, o algún coeficiente, el cambio del parámetro por un valor pequeño no afecta al resultado final.

Pero es lógico, la mayoría de los parámetros que hay se utilizan en la fórmula para calcular el indicador, por lo que un pequeño cambio sólo afectará ligeramente al resultado, que seguirá siendo calculado sobre los mismos precios.

Y en el aprendizaje automático, por el contrario, los parámetros pueden tener un efecto de avalancha en todo el curso del aprendizaje, e incluso un ligero cambio conduce a un resultado completamente diferente. Por ejemplo, el número de neuronas en una capa oculta - si las aumentamos, el número de pesos utilizados también aumentará, y la función de inicializar los pesos usando gpsc establecerá sus valores en un orden ligeramente diferente, lo que llevará a otro resultado.
Para cada parámetro se puede estudiar la influencia suave o estocástica en la evaluación resultante del modelo, y para los parámetros de influencia suave se puede utilizar adicionalmente el optimizador basado en las derivadas (función optim(method="L-BFGS-B") y optimize() en R)

No es un mercado, no es un mercado en absoluto, es una estadística con una serie de pruebas sobre la estabilidad de los ratios. El más famoso es CUSUM.

¿Así que tal vez la monstruosa dependencia del resultado de los parámetros de la red que usted da indica que fundamentalmente NO son adecuados para los mercados financieros?

¿O tal vez hay que construir primero algo adecuado al propósito (un tractor - aquí está de moda, o un cohete), y luego discutir sobre la estabilidad de lo que se obtiene?

Pero de todos modos: o tenemos pruebas de la estabilidad del modelo o no es necesario en absoluto. El error del modelo y la estabilidad del modelo son dos caras de la misma moneda.

 
Yuriy Asaulenko:
Me pregunto por qué no Python? ¿Tal vez la misma R? No lo entiendo.

Sí, es cierto. Como tienes tantas ganas de saber, coges una clasificación y estudias lo que te parece que encaja desde arriba.

 
Dr. Trader:

El modelo de Reshetov no es una referencia. Por ejemplo, busca un conjunto de predictores probando diferentes variantes: el modelo toma un conjunto aleatorio de predictores, aprende y recuerda el resultado. Esto se repite un gran número de veces en un bucle, y el mejor resultado se utiliza como modelo final. Este proceso puede acelerarse notablemente si primero se hace una selección de predictores con un algoritmo especial y luego se entrena el modelo Reshetov sólo una vez con ese conjunto concreto. Y se obtiene la calidad del modelo Reshetov a una velocidad comparable a la de AWS. El "coste" de este modelo bajará notablemente, pero la calidad seguirá siendo la misma.


¿Qué clase de algaritmo es éste? En general estoy de acuerdo con la afirmación, el precio y la calidad son cosas ligeramente diferentes. Puedes conseguir un modelo barato pero de alta calidad. El verdadero problema de Reshetov es que tarda demasiado en calcular debido a la repetida división de la muestra al azar, etc.

De nuevo, ¿qué son esos algoritmos que pueden decir inmediatamente qué predictor es irrelevante? Tiene alguna forma de implementarlo, pero no lo he mirado todavía.... De hecho, lo define vía invariante, lo cual es lógicamente bastante actual, pero creo que hay errores igualmente :-( más que errores, no creo que haya arreglos...

 

Si utilizamos 2 capas ocultas, es evidente que la segunda capa tiene un número de neuronas mucho menor que la primera.

¿Cuál es el mínimo para el número de neuronas en una capa? No creo que tenga sentido que sean menos de 3-5.

¿O una capa con 1 ó 2 neuronas también puede contribuir de forma significativa al modelo?

 
elibrarius:

Si utilizamos 2 capas ocultas, es evidente que la segunda capa tiene un número de neuronas mucho menor que la primera.

¿Cuál es el mínimo para el número de neuronas en una capa? No creo que tenga sentido que sean menos de 3-5.

¿O una capa con 1 ó 2 neuronas también puede contribuir significativamente al modelo?


Desde la práctica - 1 neurona con 3 entradas puede anotar señales normales durante 1-1,5 meses en gráficos de 15 minutos y alrededor de 200 operaciones, si tomamos una muestra más grande, entonces la calidad de la cramación cae dramáticamente y también lo hace el número de operaciones, no hay suficientes combinaciones. Es decir, siempre que el sistema permanezca inmóvil y las señales se repitan, 1 neurona sería suficiente incluso.

lo mismo con la lógica difusa en 3 entradas aproximadamente, y con la optimización de 4 funciones de pertenencia
 
Mihail Marchukajtes:

De nuevo, ¿qué tipo de algoritmos hay? que puedan decir de un vistazo qué predictor es irrelevante.

Hay muchos algoritmos, incluso más de los que uno quisiera. Por ejemplo...

Artículo de Vladimir -https://www.mql5.com/ru/articles/2029

Artículo de Alexey -https://habrahabr.ru/company/aligntechnology/blog/303750/

 

Para aquellos a los que les gusta cargar el procesador con todo tipo de cosas al modelar, he aquí una forma de reducir drásticamente el tiempo.


¿Valen la pena las simulaciones paralelas en la nube? Benchmarking mi MBP vs mi estación de trabajo vs Amazon EC2

Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
Are parallel simulations in the cloud worth it? Benchmarking my MBP vs my Workstation vs Amazon EC2
  • Kristoffer Magnusson
  • www.r-bloggers.com
If you tend to do lots of large Monte Carlo simulations, you’ve probably already discovered the benefits of multi-core CPUs and parallel computation. A simulation that takes 4 weeks without parallelization, can easily be done in 1 week on a quad core laptop with parallelization. However, for even larger simulations reducing the computation time...
 
SanSanych Fomenko:

Para aquellos a los que les gusta cargar el procesador con todo tipo de cosas al modelar, he aquí una forma de reducir drásticamente el tiempo.

¿Valen la pena las simulaciones paralelas en la nube? Benchmarking mi MBP vs mi estación de trabajo vs Amazon EC2

C Dll y una solicitud para instalar mt5, R y los paquetes adecuados - aparentemente es poco realista conseguirlo.