Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 1782

 
Valeriy Yastremskiy:

¿Qué compartes? ¿Y qué es lo que no te gusta de los incrementos? Son esencialmente velocidades ajustadas al tiempo. Pero no hay manera de que pueda hacerlo sin promediar. Pero si empiezas a tener en cuenta los promedios, rápidamente acabas en un laberinto. Tiene que haber un punto medio que funcione en algún lugar. En el último tic, la barra no es suficiente, y un poco más es salvaje.

2 o más priores con diferentes rezagos, para diferente número de conglomerados

Como no hay dependencia funcional entre el par de incrementos, la nube se divide estúpidamente por la mitad, etc. Necesitamos algo más estricto que los incrementos. Tal vez deban transformarse de alguna manera.

ejemplos


 
Maxim Dmitrievsky:

2 o más incrementos con diferentes desfases, en diferentes números de clusters

Como no hay dependencia funcional entre el par de incrementos, la nube se divide simplemente por la mitad, etc. Necesitamos algo más estricto que los incrementos. Tal vez deban transformarse de alguna manera.

ejemplos


No entiendo lo del par de incrementos. ¿En los dos últimos compases o en algo más?

Todavía tengo una idea en la dirección de las velocidades y los promedios también. Bien, los sistemas deben ser entrenados en diferentes TFs, en la interacción de diferentes TFs, y debe haber una mierda tickwise. es decir, también debe haber un comportamiento tickwise cuando el TS toma cualquier decisión.

Los diferentes TFs sólo están ponderando las señales que se alejan del estado actual. Semko tiene su propio sistema allí, pero me gusta aún más TF, hay uniformidad y cierta consideración de los extremos.

Se me ocurrió. Colocamos las órdenes a la nube de precios y, por lo tanto, el drawdown será negativo el 99% de las veces. Pero, ¿cómo podemos estimar que no nos hemos equivocado? Utilizando los extremos más cercanos, si los extremos más cercanos son negativos, podemos cerrar sin pérdidas.

 

Que podemos medir en un par de barras recientes y en un historial de 120 barras. En un mes son 10 años. Parece que es suficiente.

Velocidades de Mach 2, 14, 30, 120, 480 y encontrar altos e inflexiones

Se extiende entre los trazos adyacentes y encuentra los máximos y las torceduras

Diferencias máximas de precio con respecto a las Mashas, pero éstas suelen ser los verdaderos extremos de precio.

Tiempos medios de tendencia, destacando los máximos y mínimos

Diferencias medias en las tendencias, ala Donchian.

Y es posible dividir las tendencias en flujos y sus duraciones

El tiempo medio de las tendencias en el piso. Las tendencias de los TF inferiores en los superiores.

El tiempo medio de las tendencias.

Y parece que diferentes parámetros se vuelven significativos en función de los demás. Y la conexión no es obvia. Es lo primero que se nos ocurre para conectar la TF inferior con la superior, pero está claro que no es suficiente. Y todavía no encuentro ninguna lógica en los enlaces.

 
Valeriy Yastremskiy:

No entiendo lo del par de incrementos. ¿En los dos últimos compases o en algo más?

2 series temporales con diferentes rezagos. Se puede agrupar todo lo que se quiera, pero entonces se vuelve a caer en la incomprensión del área temática y de qué y por qué se está agrupando. No he visto ningún ejemplo de éxito en Internet. Por cierto, quería asignar grupos en lugar de componentes estacionales, y me olvidé de ello, empecé a meter MO... Uy... entonces eso sería un estudio diferente
 
mytarmailS:

Bueno el tiempo es una aproximación a la volatilidad, que es estacional en el tiempo, hay horas de negociación activas y hay pasivas

Estoy de acuerdo, no lo tuve en cuenta.

mytarmailS:

Sí, se puede guardar pero para enseñar el modelo es necesario cargar esta matriz en el entorno, y ahí se acaba)) o más bien antes, en la fase de formación de la matriz con predicados

Prueba CatBoost. En cualquier caso puedo entrenarlo y veremos el resultado.

mytarmailS:

Vaya, un concierto no es poco, me pregunto cuántos carteles tienes.

566 en esta muestra.

mytarmailS:

¿Qué es el árbol genético?


1) simple )

2) ¿cómo es? ¿Y cómo se ajustan los predictores para la ZZ?

3) Bueno, usted tiene un candelabro como la apertura o algo así, ya está distorsionada, ya que deben ser por clowes, y aquí de inmediato una gran cantidad de confusión, los signos de construir cómo, cómo hacer el objetivo, etc. (dolor innecesario), si se cambia algo por sí mismo, siempre se debe dejar el original para los demás)

El script en R, que construye un árbol utilizando un algoritmo genético, seleccionando las divisiones. No estoy muy versado en ello - el trabajo de Doc.


2. Utilizo predictores basados en la ZZ, obviamente son más eficientes si ellos y el objetivo se calculan sobre la misma ZZ.

3. No conozco su OHLC al principio de la barra, así es como lo escribí - como sucede en la vida real.

En definitiva, ¿debo rehacerlo o no tiene sentido?

 
Aleksey Vyazmikin:

En definitiva, ¿debo rehacerlo o no tiene sentido?

El catbust no ayudará, el problema es el tamaño de los datos, ni siquiera podré crear rasgos, ni siquiera llegarás al entrenamiento...

Que la muestra sea de 50k, que sea pequeña, que no sea grave, que sea más posible el sobreentrenamiento, .... ..., ... La tarea es hacer un robot para la producción, pero sólo un esfuerzo conjunto para reducir el error, y luego los conocimientos adquiridos se pueden transferir a cualquier herramienta y el mercado, 50k es bastante para ver lo que las señales de que algo es importante.

Aleksey Vyazmikin:

3. Al principio de la barra no sé su OHLC, así que lo anoté - como sucede en la vida real.

Si no conoces el OHLC, no necesitas escribirlo. ¿Por qué desplazar todo el OHLC? Nadie lo hace, sólo hay que desplazar ZZ un paso, como si se mirara al futuro un paso para entrenar y ya está. Me gustaría pedirles que si han leído alguno de los artículos de Vladimir Perervenko sobre la línea de los ciervos, por favor, léanlos, son muy incómodos cuando ya hemos dominado la forma óptima de tratar los datos y todo el mundo está acostumbrado a ellos, y alguien intenta hacer lo mismo pero de forma diferente, es algo sin sentido y molesto, y provoca muchos errores en las personas que intentan trabajar con datos de este autor.


Si después de todo esto todavía quieres hacer algo tengo los siguientes requisitos

1) los datos 50-60k no más, preferiblemente un archivo, sólo están de acuerdo en que el n de la última vela será la prueba

2) Los datos, preferiblemente sin colas, para poder tener en cuenta no sólo los últimos precios, sino también los soportes y las resistencias, lo que es imposible con las colas

3) el objetivo debe estar ya incluido en los datos

4) datos en el formato fecha,hora,o,h,l,c, objetivo


¿O debo crear un conjunto de datos?

 
Maxim Dmitrievsky:
Dos series temporales con diferentes rezagos. Se puede agrupar todo lo que se quiera, pero entonces se vuelve a caer en la incomprensión del tema y de lo que se agrupa y por qué. No he visto ningún ejemplo de éxito en Internet. Por cierto, quería asignar grupos en lugar de componentes estacionales, y me olvidé de ello, empecé a meter MO... Uy... entonces eso sería un estudio diferente

Eso pasa, la lógica no tiene paciencia con las tonterías )))) .... Hay problemas de comprensión hasta ahora. Todo lo que hay es un promedio, un adelgazamiento y un AG con aprendizaje sobre datos bastante cortos. Tampoco he visto ningún trabajo sobre la separación de las características de la serie. Por un lado, el análisis de las series para diferentes TFs debería ser idéntico. Debería haber criterios para pasar a un TF inferior. Por ejemplo, si se determinan tendencias con suficiente extensión y velocidad en el TF inferior, entonces es posible moverse en contra de la tendencia del TF superior. Pero esto es lógico. Deberíamos agrupar de alguna manera las características y ver el comportamiento diferente de las series. Si de lo contrario para resolver.

En la central nuclear se observaban 19 parámetros. Tenían una tabla de 3 a 7 parámetros cuando la zona es roja y las barras deben ser retiradas. Tampoco había un parámetro allí y no estaban interrelacionados. El nuestro es diferente, por supuesto, pero la escala de tiempo es demasiado grande, y no hay, o no siempre, conexión entre el comportamiento de las garrapatas y el de los meses. En general, debemos fijarnos en la relación entre los parámetros y en el tiempo que dura esta relación.

Pero sigue siendo complicado.

 
Valeriy Yastremskiy:

Eso pasa, la lógica no tiene paciencia con las tonterías )))) .... Hay problemas de comprensión hasta ahora. Todo lo que hay es un promedio, un adelgazamiento y un AG con aprendizaje sobre datos bastante cortos. Tampoco he visto ningún trabajo sobre la separación de las características de la serie. Por un lado, el análisis de las series para diferentes TFs debería ser idéntico. Debería haber criterios para pasar a un TF inferior. Por ejemplo, si se determinan tendencias con suficiente extensión y velocidad en el TF inferior, entonces es posible moverse hacia ellas en contra de la tendencia del TF superior. Pero esto es lógico. Deberíamos agrupar de alguna manera las características y ver el comportamiento diferente de las series. Si de lo contrario para resolver.

En la central nuclear se observaban 19 parámetros. Tenían una tabla de 3 a 7 parámetros cuando la zona es roja y las barras deben ser retiradas. Tampoco había un parámetro allí y no estaban interrelacionados. El nuestro es diferente, por supuesto, pero la escala de tiempo es demasiado grande, y no hay, o no siempre, conexión entre las garrapatas y el comportamiento mensual. En general, debemos fijarnos en la relación entre los parámetros y en el tiempo que dura esta relación.

Pero es un poco difícil.

No paso por delante de un bombardero con una cabeza nuclear sin hacer una broma :)
 
Maxim Dmitrievsky:
No paso por delante de un bombardero con una cabeza nuclear sin hacer una broma :)

Qué se puede hacer sin ellos, en este desierto)))) La mierda nuclear es donde empezó todo, calculadora de probabilidades con promedios, retroalimentación y bayesiana, el criterio de confianza es algo)) Al parecer, primero habrá que seleccionar manualmente los mismos parámetros. Muchos de ellos también.

En general, la idea es mirar una serie de 120 barras y sacar algo de mierda en diferentes variantes. No es bueno medir y entrenar sobre los estados actuales.

 
Valeriy Yastremskiy:

Qué se puede hacer sin ellos, en este desierto)))) La mierda nuclear es donde empezó todo, calculadora de probabilidades con promedios, retroalimentación y bayesiana, el criterio de confianza es algo)) Al parecer, primero habrá que seleccionar manualmente los mismos parámetros. Muchos de ellos también.

En general, la idea es mirar una serie de 120 barras y sacar algo de mierda en diferentes variantes. No es bueno medir y entrenar sobre los estados actuales.

Si se trata de clusters, sólo hay que barrer las estadísticas con los nuevos datos. Si son iguales, puedes construir CA.