Uso de redes neuronales en el comercio. - página 5

 

Aunque no me ocupo de las redes neuronales en el mercado, pero personalmente, me arriesgaría a decir que la normalización lineal ordinaria sería mejor que la normalización por varianza unitaria, ya que el reentrenamiento de la red en los nuevos datos debería ser mucho mejor, sin cambiar la brecha de la posible dispersión de los nuevos datos, lo que por supuesto no se puede hacer llevando la serie a un centrado. Con esta normalización hay que cambiar literalmente todo en la red, incluso los coeficientes de ponderación, es decir, simplemente volver a entrenar la red, en lugar de mejorar sus coeficientes de ponderación. Pero eso es sólo una suposición. Hay que probarlo.

 
registred >> :

Aunque no me ocupo de las redes neuronales en el mercado, pero personalmente, me arriesgaría a decir que la normalización lineal ordinaria sería mejor que la normalización por varianza unitaria, ya que el reentrenamiento de la red en los nuevos datos debería ser mucho mejor, sin cambiar la brecha de la posible dispersión de los nuevos datos, lo que por supuesto no se puede hacer llevando la serie a un centrado. Con esta normalización hay que cambiar literalmente todo en la red, incluso los coeficientes de ponderación, es decir, simplemente volver a entrenar la red, en lugar de mejorar sus coeficientes de ponderación. Pero eso es sólo una suposición. Hay que probarlo.


Tengo una red que simplemente se reentrena cada 24 horas. No sé si esto es una ventaja o una desventaja. Pero, siempre y cuando se funde.

 
Neutron >> :

Necesito preguntar a Prival cómo obtener la distribución deseada (rectangular) a partir de un valor arbitrario en forma analítica.

Probablemente Privalych esté durmiendo ahora, así que intentaré responder por él. Una vez modelé un valor normal basado en uno distribuido uniformemente en [0,1]. Al mismo tiempo tenía que calcular una función inversa de la función gaussiana integral a partir de una variable aleatoria uniformemente distribuida. Así, para obtener una variable aleatoria uniformemente distribuida a partir de una normalmente distribuida, tendríamos que calcular una función gaussiana integral a partir de la primera.

Por analogía, para obtener un valor distribuido uniformemente a partir de otro distribuido aleatoriamente, hay que averiguar primero la función de distribución integral del primero y aplicarla al siguiente. Espero no haber metido mucho la pata.

 

Hola Alexey.

Hagámoslo despacio y claro (sobre todo para mí).

Entonces, tenemos SV distribuidos exponencialmente de la forma Y=A*exp{-a*X} donde X es la amplitud de los datos introducidos en la entrada NS. Queremos encontrar alguna función mágica f(x), que actuando sobre un número de datos de entrada X permita obtener su distribución rectangular en el intervalo +/-1. Para ello, aconseja:

1. Encuentra una función que sea la inversa de la integral de Gauss. Encuentra la integral: Z=A/a*exp{-a*X}, ahora encuentra la inversa de la misma: X=1/a*ln(-A/a/Z)

¿Es la f(x)=1/a*ln(-A/a/x) deseada?

 
sol писал(а) >>

Mi red simplemente se reentrena cada 24 horas. No sé si eso es una ventaja o una desventaja. Pero, hasta ahora es funky.

¿Supongo que no está en el MQL?

 
FION писал(а) >>

¿Supongo que no en MQL?

Tengo la rejilla reentrenada cada vez que salgo del mercado, antes de entrar de nuevo.

 
Neutron писал(а) >>

Mi parrilla se reajusta en cada salida del mercado, antes de una nueva entrada.

¿Cuál es la estructura de la red, cuántas entradas, cuánto tiempo se tarda en volver a entrenar, en MQL o en un software externo?

 

En MQL, unas decenas de líneas de código y 9kB de volumen.

Rejilla 100/2/1, arquitectura escalada arbitrariamente (incluyendo el número de capas ocultas). Capa/s oculta/s con hipertangente, la salida muestra Compra/Venta (signo). Reaprende (reaprende) en unos 100ms.

Por mucho que lo intente, el incremento de neuronas en la capa oculta no supone un aumento significativo de la potencia de cálculo, sino que dificulta mucho el entrenamiento. Tal vez estas peculiaridades estén relacionadas con la tarea específica y el resultado no pueda generalizarse.

 
Neutron писал(а) >>

En MQL, unas decenas de líneas de código y 9kB de volumen.

Rejilla 100/2/1, arquitectura escalada arbitrariamente (incluyendo el número de capas ocultas). Capa/s oculta/s con hipertangente, la salida muestra Compra/Venta (signo). Reaprende (reaprende) en unos 100ms.

Por mucho que lo intente, el incremento de neuronas en la capa oculta no supone un aumento significativo de la potencia de cálculo, sino que dificulta mucho el entrenamiento. Quizá estas peculiaridades estén relacionadas con la tarea concreta y el resultado no pueda generalizarse.

¿Qué quiere decir con "la arquitectura escala arbitrariamente"? Según tengo entendido, la arquitectura es la estructura de la red. Y el escalamiento es el uso de alguna función de racionamiento de datos. 100 entradas es demasiado. ¿O tus 100 son otra cosa?

 

Neutron писал(а) >>

Hagámoslo despacio y claro (sobre todo para mí).

Por lo tanto, tenemos una distribución exponencial de SV

Vale Sergey, vamos a tomarlo con calma y con tristeza. En primer lugar, vamos a tratar los teoremas generales. Aquí hay un enlace. Véanse los teoremas 24, 25 y 26.

Nota: El tema 24 trata de la función de densidad de la distribución.

Pero el 25 hace exactamente lo que quieres, y se trata de la función de distribución.

Mira también, por diversión, el corolario 8 de Th 26. La tercera fórmula del corolario es exactamente de lo que hablaba cuando quería obtener una gaussiana a partir de una uniforme.

Y para su distribución exponencial sólo hay que obtener su función de distribución (integral) de forma ordenada y aplicar Th 25.

P.D. Por cierto, la última frase del ejercicio 36 me ha hecho gracia ("(Nota: nadie lo consigue así.)"). Y yo, tonto, así lo conseguí (Codabase tiene una biblioteca de statfunctions)...