Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 481

 
Maxim Dmitrievsky:

los incrementos pueden recibir una estimación probabilística de pertenencia a la clase by\sell


seguir adelante sin "pensarlo".

 
Oleg avtomat:

Bueno, adelante, sin el "pensamiento".


Bien, lo comprobaremos con un experimento... :) por supuesto que voy a probar 2 y más 2 clases, pero no veo una diferencia fundamental para mi caso

 
Maxim Dmitrievsky:

Maxim, la forma en que veo tu situación es la siguiente:

El objetivo es:

a) para obtener una probabilidad de dirección del movimiento;

b) para obtener una estimación de la fuerza del movimiento.

Opciones de solución:
1) Utilice una salida [0,1] o [-1,1]. O dos salidas [[0,1],[0,1]].

Los datos de entrenamiento deben reflejar la fuerza del movimiento, es decir, el historial de movimientos debe estar normalizado a un rango válido.

Plus: El modelo de red es fácil y sencillo de configurar.

Menos: la normalización será heterogénea en toda la serie temporal, debido a las diferentes amplitudes de las variaciones de los precios.

2) Utilice la salida de clasificación bidimensional [0,1]+[0,1] o [-1,1]+[-1,1]. O tres/cuatro salidas [[0,1],[0,1]+[0,1]] o [[0,1],[0,1]+[0,1],[0,1]]. Una dimensión es la probabilidad de la dirección del movimiento, la segunda dimensión es la probabilidad de la fuerza del movimiento.

Además: mejor visibilidad del resultado.

Menos: dificultad de ajuste de modelos de redes neuronales en marcos "de madera".

3) Opción dos con la división del modelo de red en dos. Un modelo aprende a predecir la dirección, el segundo modelo aprende a predecir la fuerza del movimiento.

Pros: mantiene la visibilidad; facilidad de aplicación de las redes neuronales.

Puntos negativos: Es posible un ligero aumento de la velocidad de cálculo; más código.

 
Aleksey Terentev:

Maxim, la forma en que veo tu situación es la siguiente:

El objetivo es:

(a) Obtener la probabilidad de la dirección del movimiento;

b) obtener una estimación de la fuerza del movimiento.

Opciones de solución:
1) Utilice una salida [0,1], o [-1,1]. O dos salidas [[0,1], [0,1]].

Los datos de entrenamiento deben reflejar la fuerza del movimiento, es decir, el historial de movimientos debe normalizarse al rango deseado.

Ventajas: Comodidad y facilidad de adaptación del modelo de red.

Menos: la normalización será heterogénea en toda la serie temporal, debido a las diferentes amplitudes de las variaciones de los precios.

Así que el valor de la probabilidad de asignación a una de las 2 clases seguirá correspondiendo a la fuerza de la señal, si inicialmente relleno las salidas con la fuerza de la señal (digamos, sólo alimentar los incrementos normalizados en el rango 0-1, la salida obtendrá cuanto mayor sea la probabilidad de asignación a una clase particular, mayor será el incremento esperado?

O no funciona así y obtenemos sólo la probabilidad de asignación a una clase, pero se pierde el tamaño del incremento en la salida :)

 
Vizard_:

Si construimos una línea de regresión simple.... i.e..... sería más fuerte que...
Y si tomamos una red neuronal con clasificación no lineal...


Mídelos con una regla y lo sabrás. Por ejemplo, el ya tan de moda Logloss(R - library(MLmetrics))

¿No sería mejor crear más clases

Tan conveniente como quieras...



Es decir, la información sobre la magnitud de los incrementos no se perderá después del entrenamiento, y la probabilidad de asignación a la 1ª de las 2 clases puede utilizarse para determinar la fuerza prevista de los incrementos, no sólo en qué clase estarán los incrementos. Entonces para qué construir muchas salidas, con 2 es suficiente :)

 
Maxim Dmitrievsky:

Es decir, la información sobre la magnitud de los incrementos no se perderá después del entrenamiento, y la probabilidad de asignación a la 1ª de las 2 clases puede utilizarse para determinar la fuerza prevista de los incrementos, no sólo en qué clase aparecerán los incrementos. Entonces para qué molestarse con muchas salidas, con 2 es suficiente :)

Si está interesado en un buen resultado, por ejemplo, la probabilidad de cada clasificación en la compra puede ser diferente de la probabilidad de la misma clasificación en la venta.

Respetuosamente.
 
Maxim Dmitrievsky:

Así que el valor de la probabilidad de asignación a una de las 2 clases corresponderá a la fuerza de la señal, si inicialmente lleno las salidas con la fuerza de la señal (digamos, que sólo alimento los incrementos normalizados en el rango 0-1, en la salida obtenemos la mayor probabilidad de asignación a tal o cual clase, cuanto mayor sea el incremento esperado?

O no funciona así y obtenemos sólo la probabilidad de asignación a una clase pero se pierde el tamaño del incremento de salida :)

La propia red neuronal no sabe lo que necesita. Aprende de lo que le das de comer. Si realmente existe un patrón entre la entrada y la salida en los datos, con un entrenamiento adecuado el modelo lo detectará. Es decir, sí, el valor de la probabilidad puede señalar la fuerza de un movimiento.


Yo haría lo siguiente: dividir las señales en dos clases de compra/venta por [0,1] o salida sinusoide/tanh [-1,1].

 
Andrey Kisselyov:
la probabilidad de cada gradación en la compra puede diferir de la probabilidad de la misma gradación en la venta, tendrá que hacer algo de trabajo si está interesado en un buen resultado.

Sinceramente.

No, ya he citado la pantalla, los incrementos son estacionarios y simétricos a ambos lados del cero, por lo que las probabilidades serán +- las mismas


 
Y sí, aquí es donde entra la normalización. Rebotará y normalizará los datos de forma diferente en distintos intervalos.

Si se normalizan los datos de una vez, las señales serán mucho más débiles.
 
Aleksey Terentev:

La propia red neuronal no sabe lo que necesita de ti. Aprende de lo que le das de comer. Si realmente hay un patrón en los datos entre la entrada y la salida, el modelo lo detectará con el entrenamiento adecuado. Es decir, sí, el valor de la probabilidad puede señalar la fuerza del movimiento.


Dividiría las señales en dos clases por [0,1] o salida sinusoide/tanh [-1,1].


Sí, gracias, eso es lo que quería oír... porque un amigo que se dedica a las redes neuronales me dijo que la probabilidad de asignación a una clase es sólo la probabilidad de asignación a una clase, se perderían los datos de los incrementos absolutos... me puse a discutir con él y acabamos confundiéndonos los dos :)