Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2751

 

hay dudas significativas de que las NN puedan funcionar en absoluto con información creciente. Más arriba se hacía referencia a algo que corre entre las paredes y se come el verde sin tocar el rojo. A medida que aumenta el laberinto (crecimiento de la información) se le borrará la memoria de rojo/verde. Así que se mueve bien en la formación anterior, pero no en la nueva. Mientras se repitan los patrones, trabaja más o menos. Y funciona perfectamente sólo donde está entrenado.

La contra tesis de la misma NN para las mismas condiciones es que un estudiante puede escribir un algoritmo más eficiente. Y este algoritmo otro estudiante puede mejorarlo o llevarlo a condiciones de otro_espacio_de_curvatura(u optimizarlo/simplificarlo). Usar NN en este ejemplo simplificado es un callejón sin salida, su resultado no puede ser mejorado consciente y cualitativamente. Y esto es en general un problema general con NN (y DL también). Estos métodos se pueden utilizar para reconocer rojo/verde, redondo/cuadrado de un conjunto de rojizo, verdoso, sobre un fondo de púrpura, en B/N oblongo. La solución de problemas especiales estrechos, no la salida de la equidad hasta el infinito

 
СанСаныч Фоменко #:

KNN no es lo mismo en absoluto.


Me interesa la "capacidad predictiva", no la clasificación, e incluso sin maestro, que son inútiles en nuestro negocio.

No obstante, KNN ofrece la forma más sencilla de tratar la no estacionariedad si se utiliza en una ventana deslizante. Utiliza el mismo conjunto de predictores todo el tiempo, lo que permite compararlo con un algoritmo que cambia el conjunto de predictores y evaluar el beneficio de esta complicación.

 
Alexey Burnakov " Estimación y selección de predictores".

Voy a publicar mi método, que resuelve problemas similares de manera robusta y sensible - Voy a dar la teoría y publicar el código en R.

Esto se hace para el enriquecimiento mutuo de la "comprensión" de las tareas de aprendizaje automático.

¿Lo que he publicado no es suficiente para publicar lo que has dicho?

 
Aleksey Nikolayev #:

Sin embargo, KNN ofrece la forma más sencilla de tratar la no estacionariedad cuando se utiliza en una ventana deslizante. Utiliza el mismo conjunto de predictores todo el tiempo, lo que permite compararlo con un algoritmo que cambia el conjunto de predictores y evaluar el beneficio de esta complicación.

No veo el sentido de hacer algo que no puede producir el resultado deseado.

 

¿Quién preguntó aquí sobre la aplicación de NN y AI en el comercio?

(moderado) plataforma (moderado ) ( moderado) (moderado) (moderado) (moderado) (moderado) entiende la descripción de condiciones/reglas/partes-algoritmos de trading en lenguaje natural. Por supuesto en inglés

Aquí en mi opinión es la dirección correcta del movimiento y la aplicación de los esfuerzos de IA. Al igual que en su dominio Wolfram, pero Wolfram es sobre todo una enciclopedia

---

en este momento, las personas que están en el mismo campo y se han comunicado durante mucho tiempo no son capaces de entenderse entre sí. Sin un autotraductor o un acuerdo mutuamente firmado y vinculante sobre la denominación de las entidades:-)

 
Aleksey Nikolayev #:

¿Ha realizado una comparación de su algoritmo con KNN (o alguna modificación del mismo)? Sería interesante ver cómo de significativa es la ganancia.

SanSanych Fomenko #:

No le veo sentido a hacer algo que en principio no puede dar el resultado deseado.


Aleksey Nikolayev #:

No obstante, KNN ofrece la forma más sencilla de tratar la no estacionariedad si se utiliza en una ventana deslizante. Utiliza el mismo conjunto de predictores todo el tiempo, lo que permite compararlo con un algoritmo que cambia el conjunto de predictores y evaluar el beneficio de esta complicación.

si KNN es esencialmente K-means (¿nombre extranjero para k-nearest-neighbors?), entonces(K-means) utiliza la distancia euclídea ... "cuando las variables no están correlacionadas -- la distancia Mahalanobis coincide con la distancia euclídea habitual" ... en LDA ... bueno si están correlacionadas -- entonces Mahalanobis es mejor, como se señaló ayer en términos generales
 
СанСаныч Фоменко #:

No puedo estar de acuerdo con eso.

El mercado está cambiando, y los intervalos de tiempo del cambio son diferentes e independientes entre sí.

Yo solía ser capaz de escribir Asesores Expertos que vivían de 3 a 6 meses. Los optimizaba los fines de semana. Entonces morían, y durante un corto tiempo bastante para agotar el depósito. No había tiempo suficiente para optimizar. Al final la situación era aún peor: después de algún tiempo resultó que había un límite, alejándose del cual era imposible seleccionar parámetros.

Hay periodos más largos de cambios en el mercado: de 5 a 7 años. Pero el resultado es el mismo que para períodos mensuales. El bot muere para siempre. Voy a enviar un bot específico del mercado en un mensaje privado - no se puede hacer aquí.

Así que toda esta idea de "fuera de muestra" es basura. Un bot todavía tiene una vida útil, no sabemos cuánto tiempo: 3 meses o 7 años. Cuando el bot muere, lo confundimos con otro drawdown y drenamos nuestro depo.

Lo ideal sería volver a entrenarlo en la siguiente vela. Si trabajamos en ticks, entonces en el siguiente tick, en H1 entonces en la llegada de la siguiente hora.

Gracias, es bastante claro, ¿por qué en cada bar))))) Y por qué después de minutos que vaya a ticks))))))

 
JeeyCi #:


si KNN es esencialmente K-means (¿nombre extranjero para k-nearest-neighbors?), entonces(K-means) utiliza la distancia euclidiana ... "cuando las variables no están correlacionadas -- la distancia Mahalanobis coincide con la distancia euclidiana ordinaria" .... en LDA ... bueno si están correlacionadas -- entonces Mahalanobis es mejor, como se señaló ayer de manera general

Nada te impide utilizar cualquier otra distancia en lugar de la distancia euclidiana. No se puede utilizar Mahalanobis, por supuesto, ya que es la distancia entre un punto y una muestra, no entre dos puntos.

 
СанСаныч Фоменко #:

No veo el sentido de hacer algo que no puede producir el resultado deseado.

Por si acaso, le diré que no voy a decirle lo que debe hacer. Más bien, sólo estoy pensando en voz alta lo que yo mismo haría en caso de que haya un algoritmo que dé buenos resultados pero que esté mal implementado en forma de Asesor Experto (aunque siempre intento evitar esta opción). Lo más probable es que intentara obtener resultados similares utilizando algoritmos más fáciles de implementar. Entre otras cosas, analizaría en qué es bueno exactamente el algoritmo.

Empezaría con KNN y si da un resultado similar, entonces se trata de una buena selección de un conjunto común de predictores. Si el resultado es mucho peor, entonces tal vez es sólo una cuestión de la elección de un subconjunto de predictores en cada punto de tiempo. Para probar esta hipótesis, yo intentaría utilizar la regresión local (algo como LOESS), puesto que la regresión ya permite comparar la significación de los predictores. Los pasos posteriores ya se basan en los resultados del análisis. Por cierto, con la aparición de las matrices en mql5, la regresión lineal se ha vuelto fácil de implementar directamente en él.

 
Maxim Dmitrievsky #:
Correcto. A falta de supuestos a priori, se utiliza el segundo tipo. Me pregunto cómo lo ve Sanych.

Tal y como yo lo veo, se hace una suposición a priori de que cada clase viene dada por una distribución gaussiana, que cambia gradualmente con el tiempo, debido a la no estacionariedad. Sin esa suposición, utilizar el método de la distancia de Mahalanobis no tiene mucho sentido.

Personalmente, creo que esta suposición es demasiado fuerte para ser cierta para cualquier instrumento en cualquier intervalo de tiempo.