Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 962

 
Maxim Dmitrievsky:

Sólo tengo precios de entrada, no sufro de fichas :) lo principal es la selección de objetivos

MaximDmitrievsky:

no sé qué hacer a continuación, a nadie se le ocurre ninguna idea, me da pereza pensar

¿Ideas?

se alimentan los precios, la desviación de los precios, el logaritmo de los precios.... y ¿cuál debería ser la salida? - imho, el mecanismo de cotización máxima, eso es lo que puedes encontrar en la pequeña TF

tratar de adivinar lo que será el primer actualizado (roto) en la nueva barra de alta [1] o baja [1] - si usted aprende a predecir, entonces es un beneficio, porque usted ya sabe la dirección del movimiento del precio

;)

 
Igor Makanu:

¿Ideas?

alimentación en los precios, desviaciones de precios, logaritmo de los preciosm_00 ¿y cuál debería ser la salida? - imho, mecanismo de cotización máxima, eso es lo que se puede encontrar en pequeños TFs usando el precio

tratar de adivinar lo que será el primer actualizado (roto) en la nueva barra de alta [1] o baja [1] - si usted aprende a predecir, entonces es un beneficio, porque usted ya sabe la dirección del movimiento del precio

;)

Los mecanismos de cita son un chit aparte :)

Me gustaría utilizarlo en plazos de 5 a 15 minutos. Ya he mostrado en las capturas de pantalla que capta algunas regularidades que no están relacionadas con las citas. Pero no funciona mucho tiempo en el oscilador, 2X traza a lo sumo.

Es interesante ver el desglose, debería probarlo.

 

Historia/Futuro = 30000/1000. Entrada - series temporales de diferencias de Cierre y Apertura: iCierre(NULL, 0, i+j+1+Traslado) - iApertura(NULL, 0, i+j+1+Traslado), donde j es de 0 a 99 (total 100 piezas). El objetivo es el color de la barra (0,1).

En los gráficos sólo el período OOS (Futuro).

No hay propagación. El nivel para introducir la orden es 0.


Diferencia - 2 puntos. Nivel para introducir una orden - 0.

Diferencia - 2 puntos. Nivel de entrada de la orden - 0,1

Diferencia - 2 puntos. Nivel de entrada de la orden - 0,15.

Distribución de los predicados entre las clases. Precisión - 0,525.


 
Ilya Antipin:


Asignación de predicados entre clases. La precisión es de 0,525.

Alguna muestra es minúscula: tengo entre 100 y 200 mil muestras, y si tomo una porción de 1000, es muy probable que haya un mejor emparejamiento.

 

Es muy fácil hacer algo brillante. Es difícil llegar al estado en el que se hacen las cosas geniales. Amedeo Modigliani :)

por lo que hay que probar diferentes tipos de hierbas

 
Maxim Dmitrievsky:

Bueno, hay un modelo, los trenes bien en diferentes modificaciones, algunos trabajan 100% y más de los trenes en oos, como aquí... (4 meses de formación 10 meses de OOS) entonces mierda

No veo el sentido de probar las demos ya que todo está claro.

Sí, es una pena que su demo haya desaparecido. Y todo porque usted está en el CB demasiado mirando, a pesar de que trajo el artículo, que dice que el CB para elegir el modelo no puede, y en el foro un montón de veces escribió lo mismo.

 
Dr. Trader:

Sí, es una pena que su demo haya desaparecido. Y todo porque estás en el OOS demasiado mirar, aunque el mismo artículo donde está escrito que en el modelo de OOS no puede elegir, y en el foro aquí muchas veces escribió lo mismo.

Esto es lo que resulta...

Voy a copiar mis razonamientos/sugerencias sobre este tema de otro hilo:

Me parece demasiada retroalimentación para estimar el modelo, por eso me preguntaba por qué se hace la selección sólo para esta parte.
Sí, funciona en un caso particular (obtuviste buenos resultados en todos los segmentos), pero me parece que no es universal.

Al fin y al cabo, es posible que te encuentres con datos que no son tan buenos. Y el modelo, por ejemplo, puede ser entrenado con un 40% de error en el gráfico de entrenamiento y luego, por accidente, mostrar un 30% de error en el gráfico de prueba. Pero digamos que el segundo modelo aprendió hasta un 35% en ambas secciones. El segundo modelo es obviamente mejor. Pero si se selecciona sólo la parcela de prueba, se seleccionará la primera. Para comparar, hay opciones para evaluar el modelo:
evaluación sólo en la parcela de entrenamiento,
o en la suma de todas las parcelas,
o como en Darch, (en los datos de validación presentados) por Err = (ErrLeran * 0,37 + ErrValid * 0,63) - estos coeficientes son por defecto pero pueden ser cambiados.

La última opción es la más interesante, ya que tiene en cuenta ambos errores, pero con una gran ponderación de la parcela de validación.
En realidad, puede ampliar la fórmula, por ejemplo, a Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4).

Tal vez deberíamos incluso hacer una selección por delta de errores, por ejemplo, si ErrLeran y ErrTest difieren en más de un 5%, entonces rechazaremos este modelo (Sanich hablaba de ello). Y del resto hacer una elección.
 
elibrarius:
Esto es lo que resulta...

Voy a copiar mis razonamientos/sugerencias sobre este tema de otro hilo:

Me parece que no hay suficiente OOS para evaluar el modelo, por eso me preguntaba por qué sólo se selecciona por esta sección.
Sí, funciona en un caso particular (obtuviste buenos resultados en todos los segmentos), pero me parece que no es universal.

Al fin y al cabo, es posible que te encuentres con datos que no son tan buenos. Y el modelo, por ejemplo, puede ser entrenado con un 40% de error en el gráfico de entrenamiento y luego, por accidente, mostrar un 30% de error en el gráfico de prueba. Pero digamos que el segundo modelo aprendió hasta un 35% en ambas secciones. El segundo modelo es obviamente mejor. Pero si se selecciona sólo la parcela de prueba, se seleccionará la primera. Para comparar, hay opciones para evaluar el modelo:
evaluación sólo en la parcela de entrenamiento,
o en la suma de todas las parcelas,
o como en Darch, (en los datos de validación presentados) por Err = (ErrLeran * 0,37 + ErrValid * 0,63) - estos coeficientes son por defecto pero pueden ser cambiados.

La última opción es la más interesante, ya que tiene en cuenta ambos errores, pero con una gran ponderación de la parcela de validación.
En principio, puede ampliar la fórmula, por ejemplo, a Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4).

Tal vez deberíamos incluso hacer una selección por errores delta, por ejemplo, si ErrLeran y ErrTest difieren en más del 5% - deberíamos rechazar tal modelo (San Sanich hablaba de ello). Y para hacer una selección del resto.
IMHO, salvo fórmulas de sumar los errores, necesitamos más proporciones de su relación, parece que alguien escribió aquí que los errores por tramos deberían correlacionarse como Tren <= Válido <= Prueba.
 
Ivan Negreshniy:
IMHO, además de las fórmulas de suma de errores, necesitamos más proporciones de su relación, parece que alguien escribió aquí que los errores por secciones deberían correlacionarse como Train <= Valid <= Test.
El tren se minimiza por el error de entrenamiento, otras áreas pueden tambalearse aleatoriamente hacia arriba y hacia abajo. Lo principal es que no se tambalee demasiado.
 
elibrarius:
El tren se minimiza por el error de entrenamiento, las otras secciones pueden colgar al azar, ya sea hacia arriba o hacia abajo. Lo principal es no colgar demasiado.

¿Y qué justifica usted, por sí mismo, la permisividad de las desviaciones a la baja, aparte del puro azar?

Y entonces cuál es su tarea principal, si no es combatir esta aleatoriedad, porque niega el sentido tanto de la validación como del OOS y del MO en general).