Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1033

 
Roffild:

Soy un programador, no un telépata. Cualquier pregunta, te daré las respuestas...

Respuesta: 42 :D

Si estás preparado para responder como programador, aquí tienes una pregunta rápida: una tarea de programación, al mismo tiempo que compruebas las habilidades en las que insistes.

En el archivo adjunto hay una plantilla de señales EURUSD H1 para un EA, necesitamos determinar el algoritmo de su formación.

Si quieres puedes publicar la solución como un EA y mostrar en acción el poder del bruteforcing del predictor y tu librería de machine learning.

Sugiero a todos los machine-learners interesados que se unan, también estoy dispuesto a resolver el problema propuesto o cualquier otro presentado como plantillas utilizando mi MO.

Tal vez en este modo de escribir podamos elaborar al menos algunos enfoques y formatos comunes)).

Archivos adjuntos:
EA_EURUSD_H1.tpl  130 kb
 

Todos los indicadores deberían haber sido borrados antes de guardar la plantilla. Puede que no haya sido el indicador name=main, pero los datos no aparecen.

¿Y dónde está la garantía de que la estrategia es rentable? Tal vez sea un pedazo de historia afortunado...

Parece que nadie ha leído mi biblioteca, porque no hay preguntas sobre ella específicamente. Todo el mundo quiere el grial sin entender los medios para encontrarlo.

 
Roffild:

Todos los indicadores deberían haber sido borrados antes de guardar la plantilla. Puede que no haya sido el indicador name=main, pero los datos no aparecen.

¿Y dónde está la garantía de que la estrategia es rentable? Tal vez sea un pedazo de historia afortunado...

Parece que nadie ha conocido mi biblioteca, porque no hay preguntas sobre ella. Todos quieren conseguir el grial, sin entender los medios para encontrarlo.

La entrada principal está en todas las plantillas, no interfiere, y los datos allí son sólo objetos gráficos - flechas, azul - COMPRA, rojo - VENTA.

Abra el gráfico EURUSD H1 y descargue el archivo (menú Charts\Template\Load Template...) y marque Objects List en el menú contextual.


Y nadie te pide un grial, sólo que resuelvas el problema y confirmes en la práctica lo que dices y cómo funciona la biblioteca.

 
Aleksey Terentev:
Si te interesas por las arquitecturas de redes neuronales avanzadas, surgen algunas ideas muy interesantes. Por supuesto, es difícil entrar en detalles, se necesita experiencia con los marcos para el dithering, y una comprensión de las matemáticas vectoriales en general.
Pero vale la pena.
En cuanto al mercado, no tengo mucho que mostrar, el mercado es ***inok) Lleva mucho tiempo.
Acércate a nosotros en la discordia, tenemos un lugar tranquilo y acogedor) te describiré y mostraré con ejemplos cómo preparar redes profundas.

No se lo des, te va a joder.

 
Aleksey Terentev:
Si te interesas por las arquitecturas de redes neuronales avanzadas, surgen algunas ideas muy interesantes. Por supuesto, es difícil entrar en detalles, se necesita experiencia con los marcos de dithering, y entender las matemáticas vectoriales en general.
Pero vale la pena.
En cuanto al mercado, no tengo mucho que mostrar, el mercado es ***inok) Lleva mucho tiempo.
Ven a nosotros en la discordia, tenemos un tranquilo y acogedor) Voy a describir y mostrar con ejemplos, cómo preparar una red profunda.

Me comunico en el foro y no apoyo a las sectas

)

 
Roffild:

Soy un programador, no un telépata. Si tienes alguna pregunta, te daré las respuestas...

Respuesta: 42 :D

Me interesa el concepto de por qué debe funcionar, no qué se conecta a qué y cómo de rápido

explicación teórica del planteamiento, no me he dado cuenta desde el código y no es divertido usar java y spark etc. sólo para entenderlo

es decir, cómo ve y trabaja con iO, la profundidad de su comprensión, por así decirlo.

si contestas a 43 no volveré a preguntar :)

 

Parte de mi biblioteca, que está en MQL5, no está directamente vinculada a Apache Spark. Hay un módulo separado en Java que convierte los datos para su uso en Spark. Y este módulo debería ser portado a Python.

Apache Spark es un sistema de procesamiento de big data distribuido + módulo para Random Forests. Puede procesar datos en 1000 servidores (Facebook se topó con un umbral de este tipo).

Big data: cuando el procesamiento de archivos no cabe en la memoria RAM.

Dado: 800 predictores durante 2 años en 5 GB.

Tarea: Utilizar algunos servidores baratos de amazon para crear 250 árboles en 1-2 horas.

Solución: AWS EMR + Apache Spark.

¿Hay alguna opción para resolver este problema sin usar Spark?

 

Apache Spark le permite olvidarse de la falta de RAM.

He creado un bosque aleatorio de 500 árboles con 7000 predictores y 30 GB de datos. Amazon funcionó durante 15 horas en dos servidores con 16 CPUs.

 
Roffild:

Apache Spark le permite olvidarse de la falta de RAM.

He creado un bosque aleatorio de 500 árboles con 7000 predictores y 30 GB de datos. Amazon estuvo funcionando 15 horas en dos servidores con 16 CPUs.

¿Y el sentido de 7000 predictores en un bosque aleatorio? Sigue siendo un reciclaje. Tomé unos 30-40 predictores y entrené el bosque. Luego he comprobado cada uno de ellos uno por uno y he seleccionado 4 predictores de esta manera.

El bosque entrenado con cuatro predictores resulta un poco mejor que con 30-40, pero no por mucho. Las cotizaciones, en particular las de forex, tienen un tipo de datos más aleatorio y resulta +5% (predice correctamente el 55%) a la clase deseada en relación con la negativa.

Tal vez, por supuesto, podamos extraer de algún modo un componente de la serie de precios que divida mejor las clases, pero hasta ahora no lo he conseguido.

Lo que quiero decir es que no es necesario crear predictores. No creo que tenga mucho sentido, sólo hará que el bosque se recupere aún más rápido.

 
Roffild:

Apache Spark le permite olvidarse de la falta de RAM.

He creado un bosque aleatorio de 500 árboles con 7000 predictores y 30 GB de datos. Amazon funcionó durante 15 horas en dos servidores con 16 CPUs.

Decidieron atiborrar a los incapaces y multiplicar los predictores sin ningún sentido

¿De dónde has sacado tantos predictores? ¿Cuál es su importancia? Hay 1/3 del bosque que no está incluido en el conjunto de entrenamiento y el 95% tiene poca importancia. ¿Y cuál es la respuesta del sistema ahora con tantos predictores, 3 horas para una previsión? )