Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 77

 
Un resultado muy bueno para R, dado que todos los demás lenguajes se utilizan para muchos fines diferentes, y R sólo se utiliza para el manejo de datos.
 
Dr.Trader:
Un resultado muy bueno para R, teniendo en cuenta que todos los demás lenguajes se utilizan para muchos fines diferentes y R sólo para el manejo de datos.

¿Has probado a entrenar con mis datos?

He hecho un experimento de 5 días. ¡Sólo estoy torturando al EURUSD!

Hice 99 muestras de entrenamiento del tamaño que publiqué aquí. Todos ellos son únicos, ya que contienen observaciones de carácter temporal. Estoy formando modelos en ellos y haré un comité de bosques de GBM. Ya tengo algunos resultados interesantes en la validación, aunque sólo he pasado por 18 muestras en 24 horas. Dicho esto, hice 2,5 veces la validación, ¡y luego mostraré por qué!

Como se puede ver, en la primera muestra de entrenamiento el modelo se entrenó de manera que para 400 K observaciones en la validación obtuve MO de 2,7 puntos (incluyendo la dispersión).

Bueno, todavía hay resultados de 1, 1,5 puntos, normales. Todo esto se apilará en la comisión más adelante y ¡vamos a ver cuál es la foto que finalmente se convalida! Preveo una nota de 4 o 4+ para los deberes.

Adelante, señores.

PS: datos de entrenamiento - 99 muestras para la diversificación y el comité: https://drive.google.com/open?id=0B_Au3ANgcG7CNG5JT3R2UzI0UzQ

 

Sí, lo intenté, no funcionó la primera vez. Para estimar el modelo tomé la precisión del resultado de la regresión (resultado requerido escalado en [0;0,5;1] menos el resultado obtenido, módulo). La genética ha encontrado ese máximo global con un par de predictores, cuando la neurona no tiene suficientes datos para el entrenamiento, por lo que devuelve 0,5 en casi todos los datos (coincidiendo con la clase "no operar"). En general, una función de aptitud de este tipo no es adecuada en absoluto, la red simplemente no comercia como resultado.

Ahora el segundo experimento sigue en marcha. Sigo utilizando 3 clases pero redondeando inmediatamente el resultado de la regresión a los niveles [0;0,5;1]. La estimación es la precisión de la clasificación ([número de respuestas correctas] / [número total]). A partir del gráfico de los mejores valores de aptitud en la genética puedo juzgar que el resultado será cercano al 33%, esencialmente el mismo que el azar. Tal vez un poco más alto si tienes suerte. Tengo que esperar uno o dos días más hasta que la genética esté al máximo, entonces podré hacer la prueba frontal.

En mis predictores suelo obtener mejores resultados, creo que hay que añadir más indicadores a estos datos. Si su algoritmo puede evaluar y descartar predictores, cuantos más indicadores añada inicialmente, mejor.

 
Dr.Trader:

Sí, lo intenté, no funcionó la primera vez. Para estimar el modelo tomé la precisión del resultado de la regresión (resultado requerido escalado en [0;0,5;1] menos el resultado obtenido, módulo). La genética ha encontrado ese máximo global con un par de predictores, cuando la neurona no tiene suficientes datos para el entrenamiento, por lo que devuelve 0,5 en casi todos los datos (coincidiendo con la clase "no operar"). En general, una función de aptitud de este tipo no es adecuada en absoluto, la red simplemente no comercia como resultado.

Ahora el segundo experimento sigue en marcha. Sigo utilizando 3 clases pero redondeando inmediatamente el resultado de la regresión a los niveles [0;0,5;1]. La estimación es la precisión de la clasificación ([número de respuestas correctas] / [número total]). A partir del gráfico de los mejores valores de aptitud en la genética puedo juzgar que el resultado será cercano al 33%, esencialmente el mismo que el aleatorio. Tal vez un poco más alto si tienes suerte. Tengo que esperar uno o dos días más hasta que la genética no llegue a su máximo, entonces podré hacer la prueba frontal.

En mis predictores suelo tener mejores resultados, creo que hay que añadir más indicadores a estos datos. Si su algoritmo puede evaluar y descartar predictores, cuantos más indicadores añada inicialmente, mejor.

Gracias. Informe sobre los resultados.

Sobre la tuya y la nuestra. Hay bastantes predictores aquí. Suficiente para mi gusto. Sólo tengo cinco pares y 10 años para cada uno. Es comprensible que el aprendizaje de un modelo sea más largo y lento que el de un par y dos años. Pero no significa que sea peor.
 
Sigue intentando construir un grial???? Vamos......
 
Mihail Marchukajtes:
Sigue intentando construir el grial???? Vamos......
alguien prometió el fin de semana explicar su grial
 
Mihail Marchukajtes:
Sigue intentando construir un grial???? Vamos......
Troll, sal de aquí.
 
No, no chicos, el sistema se ha filtrado, no tiene sentido ni siquiera mostrarlo. Disculpas..... Sobre el tratado de clasificación, sí... Puedo... pero aún no tengo tiempo, en cuanto esté libre y me invada la creatividad, seguro que te escribo ..... De lo contrario, .....
 
Mihail Marchukajtes:
No, chicos, el sistema ya no existe, no tiene sentido ni siquiera mostrarlo. Disculpas..... En cuanto al tratado de clasificación, sí... puede... pero aún no hay tiempo, en cuanto esté libre y me invada la creatividad, escribiré sobre ello..... De lo contrario, .....

Me pregunto... ¿No has escrito que llevas un año utilizando tu algoritmo con éxito? Hace unas horas escribiste "Sigo intentando construir un grial???? Vamos......" lo que implica que el algoritmo estaba funcionando hace unas horas y luego se ha ido???????????????????? Eso no hace que tu historia tenga ningún sentido....

Mira, si tienes algo que contarme, hazme un PM, porque yo hice lo mismo que tú escribiste, me interesa el tema.

 

En el hilo se ha hablado de RNeat, que es una neurona con topología adaptativa, en la que los pesos y las conexiones de las neuronas se forman utilizando la genética.
A juzgar por la descripción y las pruebas sencillas, el modelo es bastante bueno. Pero no es tan bueno para el mercado de divisas. Durante una semana tuve el entrenamiento funcionando, prediciendo comprar/vender en la siguiente barra con 400 predictores.
El aprendizaje del modelo es demasiado lento, en una semana la aptitud del modelo casi aumentó a sólo el 2%. La precisión de la predicción, incluso en los datos de entrenamiento, es sólo del 55%, el modelo no ha tenido tiempo de evolucionar hacia una buena lógica para empezar a generar beneficios.

La precisión en los datos de validación (barras aleatorias extraídas de los datos de entrenamiento) es un poco mejor, pero se debe más al azar que al mérito del modelo.
La precisión de la prueba frontal fluctúa entre el 50% y el 53% y, a juzgar por el gráfico, también es accidental y no se debe al modelo.
No ha ocurrido ningún milagro, supongo que el modelo evolucionará a la lógica correcta después de meses de trabajo, pero se volverá a entrenar con malos resultados en la validación y para entonces estará desfasado y tendré que empezar de nuevo.
Detengo el experimento; no veo el sentido de continuar.