Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1329

 
Yuriy Asaulenko:

Puedes hacer lo mismo sin un profesor. No veo ninguna diferencia en esto.

Imagina un montón de neuronas aprendiendo y resolviendo un problema que se resuelve con un par o tres declaraciones if... El cerebro de los NS está lleno de esta mierda, y en lugar de pensar en la hermosa....))

Lo entiendo, se llama conocimiento a priori, experiencia incorporada, pero no lo cruzas con un modelo porque estás 100% seguro

No tengo ningún conocimiento de un proceso aleatorio excepto que es aleatorio y un par de creencias menores más
 
Maxim Dmitrievsky:

Lo entiendo, se llama conocimiento a priori, juicio experto incorporado, pero no lo cruzas con un modelo porque estás 100% seguro

Sí, eso es exactamente. Es prácticamente axiomático, para qué comprobarlo. Conocemos a priori una parte de la solución - no meditamos en el mercado para nada).

 
Maxim Dmitrievsky:

De nuevo, estamos hablando de enfoques diferentes

Tú enseñas con un profesor porque empiezas desde el principio, yo enseño sin profesor.

Lo recuerdo. Diferentes enfoques, por supuesto. De nuevo, en esto (con un profesor) no veo ninguna contraindicación. Todo es factible, si el deseo, si aparece por supuesto.

A menos que usted tiene RNN sin un maestro, aquí todo es más complicado, y simplemente no saben, yo no uso. Por cierto, ¿qué usas? Podría haber dicho, pero indagar en el tema...

 
Yuriy Asaulenko:

Lo recuerdo. Diferentes enfoques, por supuesto. Una vez más, no veo ninguna contradicción en esto (con un profesor). Todo es factible, si se tiene la voluntad, por supuesto.

A menos que usted tiene RNN sin un maestro, aquí todo es más complicado, y simplemente no saben, yo no uso. Por cierto, ¿qué usas? Podría haber dicho, pero indagar en el tema...

muchas cosas, no suficiente RNN todavía )) Lo haré más tarde

hay algunos artículos sobre lo básico, pero naturalmente han avanzado

 
Maxim Dmitrievsky:

Tengo un montón de cosas, no tengo suficiente todavía )) Lo haré más tarde.

hay artículos sobre lo básico, pero por supuesto ya he ido más allá.

En una encrucijada, irás a la derecha... etc. Tensorflow, muy buena funcionalidad, pero dicen que muy engorroso. Sólo he leído los documentos hasta ahora. ¿No se usa?

 
Yuriy Asaulenko:

En un cruce, se va a la derecha... etc. Tensorflow, muy buena funcionalidad, pero se dice que es muy engorroso. Hasta ahora sólo he leído los documentos. ¿No lo has usado?

tf es de bajo nivel, se pone encima de theano, usa tf.theano, es más sencillo.

He visto diferentes ejemplos, pero aún no he hecho ningún desarrollo

la versión 2 está en camino, ya disponible en el sitio web, simplifica la creación de modelos
 
Maxim Dmitrievsky:

es tf un nivel bajo, sobre theano, usando tf.theano, entonces todo es más fácil

He mirado diferentes ejemplos, pero aún no he desarrollado nada.

En términos de velocidad. Creo que voy a parar en scikit-learn por ahora, CHEZ. Los MLP no están mal ahí.

 
Yuriy Asaulenko:

En términos de velocidad. Creo que me quedaré con scikit-learn por ahora, CEZ. Los MLP no están mal ahí.

No lo sé, no lo creo.

hay un montón de paquetes por ahí, trato de aprender sólo los más populares y en evolución.

sklearn es un batiburrillo de cosas.

tf es más bien un constructor de su propia arquitectura.

 
Yuriy Asaulenko:

A NS realmente no le gusta el escalamiento. Se entrena en el rango de precios de 100-120, si el precio se sale del rango, ya está, aborta. Simplemente divido todo lo relacionado con el precio por el propio precio, le resto uno, y luego uso coeficientes para llevar las variables al rango dinámico deseado.

Así que en ambos casos tenemos que preprocesar los datos hasta conseguir una métrica aceptable. Utilizo mi ATR de la TF superior y el posicionamiento del precio en ella. Obtengo fichas de dominó con muescas por niveles, al precio se le asigna un número de nivel de Fibonacci.

 

Terminado el procesamiento de los modelos, la semilla 201 a 401 - todo lo demás está sin cambios.

Tabla con los resultados del balance

Tabla con indicadores métricos

Tabla con el número de modelos que cumplen los criterios de selección en la muestra independiente


Tabla con el número de modelos correspondientes al criterio de selección en las tres muestras

Gráficos de modelos (gifs en su mayoría)

30%

40%

50%

60%

La tendencia parece no haber cambiado en su mayor parte para todas las métricas; a continuación se presentan las tablas delta - tal cual, para comparar los cambios

Para los indicadores métricos, la diferencia es mínima

A partir de los datos recogidos podemos concluir que la tendencia se ha mantenido en general.

Lo que más me desconcierta es otra cuestión: ¿por qué los gráficos son muy similares para diferentes modelos en diferentes muestras? Parece que el modelo consigue captar algún patrón aparente que aparece con una periodicidad frecuente y en diferentes tamaños de muestra (al menos este trozo siempre aparece en la ventana), y es este patrón el que es explotado por el modelo.

Por mi parte, he llegado a la conclusión de que es muy posible asignar entre el 30% y el 70% de la muestra de todos los datos a un gráfico de validación en busca de patrones interesantes, pero parece que el óptimo sigue siendo el 30%.