Aprendizaje automático en el trading: teoría, práctica, operaciones y más - página 2269

 
Maxim Dmitrievsky:

Yo escribí mi gan, no hay nada complicado. Sin embargo, no es recursivo, tendré que rehacerlo.

Un ejemplo en Torch.

aquí hay otro ejemplo

Cuando tenga tiempo suficiente, intentaré averiguarlo.

 
Rorschach:

Tendré tiempo para intentar resolverlo.

Hice una comparación de diferentes modelos generativos de la biblioteca de arriba, a través de mi lib. Resulta que el GMM funciona mejor para los datos tabulares (dataframe con incrementos). Luego vienen las cópulas, las segundas más eficientes. Los modelos de redes neuronales como el Gan tabular y otros funcionaron peor. Pero puede que haya hecho algo mal. También existe esta opción.

 
Maxim Dmitrievsky:

Hice una comparación de diferentes modelos generativos de la biblioteca anterior, a través de mi lib. Resulta que el GMM funciona mejor para los datos tabulares (dataframe con incrementos). Luego vienen las cópulas, las segundas más eficientes. Los modelos de redes neuronales como el Gan tabular y otros funcionaron peor. Pero puede que haya hecho algo mal. También existe esta opción.

Las redes parecen tener poca tolerancia al ruido, quizá por eso los resultados son peores.

Quería mezclar el ruido con los datos en cada época, pero nunca llegué a hacerlo.

 
Rorschach:

Parece que las redes no toleran bien el ruido, por lo que los resultados pueden ser peores.

Quería añadir ruido a los datos en cada época, pero nunca llegué a hacerlo.

Parece que están promediando muy duro. El resultado son muestras similares, con poca variación. No importa cómo se cambie el vector latente, se obtienen valores demasiado cercanos entre sí.

 
Maxim Dmitrievsky:

Es como si estuvieran promediando muy duro. El resultado son muestras similares, con poca variación. No importa cómo se cambie el vector latente, los valores están demasiado cerca.

¿Qué tal si se reduce la profundidad de la historia?

 
Rorschach:

¿Qué tal si se reduce la profundidad de la historia?

He hecho diferentes cosas, la salida tanto del autoencoder como del gm da valores fuertemente promediados. Si el autocodificador comprime por definición, no está claro por qué lo hacen los GAN. Parece que el abandono de los estudios tampoco ayuda.

 
Maxim Dmitrievsky:

La salida del autoencoder y del gm da valores muy promediados. Si el autocodificador comprime por definición, no está claro por qué lo hacen los GAN. Parece que el abandono de los estudios tampoco ayuda.

Promediar y difuminar es más o menos lo mismo, ¿no? He encontrado este artículo .

 
Rorschach:

Promediar y difuminar es más o menos lo mismo, ¿no? He encontrado este artículo .

Bueno, sí, la compresión de datos.

Lo entiendo con los números, pero los datos tabulares funcionan peor.

por lo que existe TabularGAN. En el paquete de arriba.

 
Maxim Dmitrievsky:

Bueno, sí, la compresión de la información.

Lo entiendo con las cifras, pero los datos tabulares son peores

Lee la diagonal, parece que se trata de una distribución de ruido diferente y una métrica inadecuada.

Mejor comprobarlo con los datos de las pruebas en condiciones de invernadero.
 
Rorschach:

Interesante el tema de la inversión de la red.

Alimentar el ruido en las entradas. Obtén un espectro en la salida.

https://arxiv.org/pdf/1806.08734.pdf