Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1112

 

Para el ML, los datos son mucho más importantes que un buen modelo.

Así que, puede ser útil, lo compartiré:

Recoger los ticks de MetaTrader 5 directamente a la base de datos MySQL a través de libmysql en tiempo real

MT5_ticks_to_MySQL

La historia en sí se puede encontrar aquí:

http://ticks.alpari.org

 
itslek:

Para el ML, los datos son mucho más importantes que un buen modelo.

Así que, puede ser útil, lo compartiré:

Recoger los ticks de MetaTrader 5 directamente a la base de datos MySQL a través de libmysql en tiempo real

MT5_ticks_to_MySQL

La historia en sí se puede encontrar aquí:

http://ticks.alpari.org

En un archivo CSV normal la tarea se resuelve con el mismo éxito y rapidez. Y, además, no tienes que molestarte en nada.

 
Yuriy Asaulenko:

La tarea se resuelve en un archivo CSV normal con la misma rapidez y el mismo éxito. Y, además, no tienes que molestarte en nada.

eh, no entienden y comentan enseguida)

Estoy de acuerdo, es más conveniente subir el historial a CSV. Pero para trabajar en línea con modelos ya hechos...

 
itslek:

eh, no entienden y comentan enseguida)

Estoy de acuerdo, es más conveniente subir el historial a CSV. Pero para trabajar en línea con modelos ya hechos...

En línea tantas garrapatas no necesitan. Y caben en la memoria.

Y no en línea, no se necesita mucha velocidad para exportar. La importación desde el CSV a la base de datos se realiza manualmente.

 
Vizard_:

+1

Estoy de acuerdo en que los datos son más importantes que el modelo, pero el método para construirlo también lo es. En este caso lo considero 50/50.

Es importante que el modelo dé más del 50% de modelos generalizados en las optimizaciones repetidas. Es decir, 5 o más modelos de cada 10 optimizaciones deben ser generalizados a un nivel suficiente. ¿Por qué es así? Porque al seleccionar entre 10 modelos la probabilidad de seleccionar el que funciona es mayor. ¿De qué sirve el algoritmo si sólo produce 2 modelos generalizados de cada 10 optimizaciones? La probabilidad de que el Asesor Experto elija el modelo de trabajo es muy baja y, por lo tanto, este algoritmo también es poco útil.

Es importante que los datos sean la causa de la función objetivo, al menos un 20% o más. Si hay una razón en los datos de entrada, la responsabilidad de encontrarla recae en el algoritmo de optimización.


Todavía estoy interesado en comprobar mis resultados en otros algoritmos y entender lo que es el éxito. La disponibilidad de datos o optimizador Reshetova, que es todo odiado aquí, pero para hacerlo tendrá que probar en la vida real, y teniendo en cuenta el hecho de que la gente aquí miserable. CUSTOMS........

Si alguien más se hace esa pregunta, creo que puedo responderla cómo: Preparo los datos. Usted entrena su IA, después del entrenamiento probamos el modelo en las retroalimentaciones (preferiblemente en el mundo real), si el EA funciona y estamos convencidos de que el modelo funciona, significa que su algoritmo de optimización funciona (no lo necesito) y por lo tanto debemos centrarnos en encontrar datos de entrada. Si no puedo conseguir un modelo que funcione con mis datos, tengo que afinar el algoritmo. Creo que a los principiantes les interesará y, mientras tanto, yo también me aseguraré del éxito. Los datos o la disponibilidad de un potente optimizador Reshetov.

Así pues, .... que acepta este reto?????

 
Mihail Marchukajtes:

Estoy de acuerdo en que los datos son más importantes que el modelo, pero el método para construirlo también lo es. En este caso lo considero 50/50.

Es importante que el modelo dé más del 50% de modelos generalizados en las optimizaciones repetidas. Es decir, 5 o más modelos de cada 10 optimizaciones deben ser generalizados a un nivel suficiente. ¿Por qué es así? Porque al seleccionar entre 10 modelos la probabilidad de seleccionar el que funciona es mayor. ¿De qué sirve el algoritmo si sólo produce 2 modelos generalizados de cada 10 optimizaciones? La probabilidad de que el Asesor Experto elija el modelo de trabajo es muy baja y, por lo tanto, este algoritmo también es poco útil.

Es importante que los datos sean la causa de la función objetivo, al menos un 20% o más. Si hay una razón en los datos de entrada, la responsabilidad de encontrarla recae en el algoritmo de optimización.


Todavía estoy interesado en comprobar mis resultados en otros algoritmos y entender lo que es el éxito. La disponibilidad de datos o optimizador Reshetova, que es todo odiado aquí, pero para hacerlo tendrá que probar en la vida real, y teniendo en cuenta el hecho de que la gente aquí miserable. CUSTOMS........

Si alguien más se hace esta pregunta, creo que puedo responderla cómo: Preparo los datos. Usted entrena su IA, después del entrenamiento probamos el modelo en las retroalimentaciones (preferiblemente en el mundo real), si el EA funciona y estamos convencidos de que el modelo funciona, significa que su algoritmo de optimización funciona (no lo necesito) y por lo tanto debemos centrarnos en encontrar datos de entrada. Si no puedo conseguir un modelo que funcione con mis datos, tengo que afinar el algoritmo. Creo que a los principiantes les interesará y, mientras tanto, yo también me aseguraré del éxito. Los datos o la disponibilidad de un potente optimizador Reshetov.

Así pues, .... que acepta este reto?????

¿Ya hay objetivos en los datos? ¿Qué métrica?)

Si se reduce el reto a un simple formulario de competición de aprendizaje automático, se puede atraer no sólo a los comerciantes)

 
itslek:

¿Las etiquetas de los datos ya están configuradas? ¿Cuál es la métrica?)

Si se reduce la tarea a un simple formulario de concurso de aprendizaje automático, se puede atraer a algo más que a los comerciantes)

Sí, los datos del objetivo ya estarán ahí. Estamos hablando de modelos de clasificación. Aquí el problema es diferente, ¿cómo podemos comprobar estos modelos obtenidos en su sistema???? Preferiblemente en el real...

 
Mihail Marchukajtes:

Sí, los datos del objetivo ya estarán ahí. Nos referimos a los modelos de clasificación. El problema aquí es otro, cómo puede comprobar estos modelos obtenidos en sus sistemas???? Preferiblemente en el real...

Para empezar, compruebe al menos en una muestra retrasada. Supongamos que se dan los datos de 2012 a 2016. Prueba de 2017. 2018 te deja para la prueba final (para que no hubiera ningún ajuste).

Espere con el real) no comparten la piel no mató al oso ;) primero tiene que hacer un modelo que podría al menos pasar la validación, y luego tratar de rodar este elefante en el producto. Son dos tareas completamente diferentes.

 
No sé qué hacer conél:

Para empezar, al menos comprueba una muestra retrasada. Supongamos que se dan datos de 2012 a 2016. Prueba de 2017. Mantienes 2018 para la prueba final (para que no haya ajustes).

Espera con el real) no dividir la piel no mató al oso ;)

Entonces, ¿cómo puedo comprobar el modelo? si hago la validación en MT tester. ¿Después de la optimización podremos cargar el modelo en MT4?

 
Mihail Marchukajtes:

Entonces, ¿cómo puedo comprobar el modelo? si lo compruebo en el probador de MT. Después de la optimización, ¿podremos cargar el modelo en MT4?

Y mi punto es este. En primer lugar, establece el problema en el vacío. con su métrica.


Si quieres ejecutarlo en el probador con la red de arrastre allí y todas las demás bondades:

Proporcionar los datos en .csv con la orientación (entiendo que tiene esta clasificación binaria). luego entrenar el modelo y predecir la orientación. el resultado se carga como una lista de respuestas del modelo en el mismo probador y ejecutar. Pero hacerlo para cada modelo es otra variante de ajuste, es mejor pensar en las métricas o el objetivo. Y en el probador debemos ejecutar sólo la última variante.

Para el tiempo real es una molestia aparte y no todos los modelos pueden ser envueltos en un dll.