L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2269

 
Maxim Dmitrievsky:

J'ai écrit mon gan, il n'y a rien de compliqué. Ce n'est pas récursif cependant, je vais devoir le refaire.

Un exemple sur Torch.

voici un autre exemple

Quand j'aurai assez de temps, j'essaierai de trouver une solution.

 
Rorschach:

J'aurai le temps d'essayer de comprendre.

J'ai fait une comparaison de différents modèles génératifs à partir de la bibliothèque ci-dessus, à travers ma lib. Il s'avère que le GMM fonctionne mieux pour les données tabulaires (cadre de données avec incréments). Viennent ensuite les copules, qui sont les deuxièmes plus efficaces. Les modèles de réseaux neuronaux comme le Gan tabulaire et d'autres fonctionnent moins bien. Mais j'ai peut-être fait quelque chose de mal. Il y a aussi cette option.

 
Maxim Dmitrievsky:

J'ai fait une comparaison de différents modèles génératifs à partir de la bibliothèque ci-dessus, à travers ma lib. Il s'avère que le GMM fonctionne mieux pour les données tabulaires (cadre de données avec incréments). Viennent ensuite les copules, qui sont les deuxièmes plus efficaces. Les modèles de réseaux neuronaux comme le Gan tabulaire et d'autres fonctionnent moins bien. Mais j'ai peut-être fait quelque chose de mal. Il y a aussi cette option.

Les réseaux semblent avoir une mauvaise tolérance au bruit, c'est peut-être pour cela que les résultats sont moins bons.

Je voulais mélanger du bruit avec des données à chaque époque, mais je n'ai jamais pu le faire.

 
Rorschach:

Les réseaux ne semblent pas bien tolérer le bruit, ce qui peut expliquer pourquoi les résultats sont moins bons.

Je voulais ajouter du bruit aux données à chaque époque, mais je ne l'ai jamais fait.

On dirait qu'ils font de gros efforts. Les résultats sont des échantillons similaires, avec peu de variations. Quelle que soit la façon dont vous modifiez le vecteur latent, vous obtenez des valeurs trop proches les unes des autres.

 
Maxim Dmitrievsky:

C'est comme s'ils faisaient une moyenne très dure. Les résultats sont des échantillons similaires, avec peu de variations. Peu importe comment vous modifiez le vecteur latent, les valeurs sont trop proches.

Pourquoi ne pas réduire la profondeur de l'histoire ?

 
Rorschach:

Pourquoi ne pas réduire la profondeur de l'histoire ?

J'ai fait différentes choses, la sortie de l'autoencodeur et de gm donne des valeurs fortement moyennées. Si les auto-encodeurs compressent par définition, on ne voit pas pourquoi les GANs le font. L'abandon n'aide pas non plus, semble-t-il.

 
Maxim Dmitrievsky:

La sortie de l'autoencodeur et du gm donne des valeurs fortement moyennées. Si l'autoencodeur compresse par définition, on ne voit pas pourquoi les GANs le font. L'abandon n'aide pas non plus, semble-t-il.

Le calcul de la moyenne et le flou sont à peu près la même chose, non ? J'ai trouvé cet article .

 
Rorschach:

Le calcul de la moyenne et le flou sont à peu près la même chose, non ? J'ai trouvé cet article .

Eh bien, oui, la compression des données.

Je comprends avec les chiffres, mais les données tabulaires fonctionnent encore plus mal.

c'est pourquoi il y a TabularGAN. Dans le paquet ci-dessus.

 
Maxim Dmitrievsky:

Eh bien, oui, la compression de l'information.

Je comprends avec les chiffres, mais les données tabulaires sont pires.

En lisant la diagonale, il semble qu'il s'agisse d'une distribution différente du bruit et d'une métrique inappropriée.

Il est préférable de vérifier avec des données d'essai dans des conditions de serre.
 
Rorschach:

Sujet intéressant de l'inversion du réseau.

Alimenter le bruit aux entrées. Obtenez un spectre à la sortie.

https://arxiv.org/pdf/1806.08734.pdf