L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1547

 
Maxim Dmitrievsky:

Je ne sais pas, c'est toujours différent.

Hmm, alors peut-être penser à un moyen de le découvrir ?

À propos, je peux construire un modèle en R à partir de vos données - si vous êtes intéressé par la comparaison de l'efficacité des méthodes.
 
Aleksey Vyazmikin:

Hmm, alors pouvons-nous penser à un moyen de le découvrir ?

À propos, je peux construire un modèle en R à partir de vos données - si vous êtes intéressé par la comparaison de l'efficacité des méthodes.

on ne peut déjà rien faire de mieux, le modèle est parfait et confirme la nature aléatoire de kotir

de nouvelles améliorations ne peuvent être apportées que par des méthodes différentes de travail avec les processus aléatoires, comme je l'ai écrit ci-dessus

 
Maxim Dmitrievsky:

on ne peut rien faire de mieux là, le modèle est parfait et confirme la nature aléatoire de kotir

D'autres améliorations ne peuvent être apportées que par des méthodes différentes de travail avec les processus aléatoires, comme je l'ai écrit ci-dessus.

Des solutions aléatoires pour des processus aléatoires me semble une méthode trop risquée dans son idéologie...

 
Maxim Dmitrievsky:

Je reviens à quelque chose que je voulais faire depuis longtemps : MO + stoh.

http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/

Le sujet est intéressant, en particulier le modèle de saut de Merton ou une de ses variantes. Il semble que, contrairement à la diffusion conventionnelle, il ne soit pas réduit (par échantillonnage temporel) à une autorégression, ou qu'il le soit d'une manière non triviale. Peut-être que les calculs dans une fenêtre glissante pour un portefeuille seront tout à fait inabordables.

 

La forêt aléatoire est une histoire d'ajustement sans possibilité d'ajustement. J'ai exploité toutes les options de SL il y a un an.

La régression linéaire a beaucoup plus de chances de produire un bénéfice. Lors de la formation, vous devez alimenter les prix relatifs, et non les prix réels.

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

 
Roffild:

Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0

Quelle configuration de grille préférez-vous ?

 

Le constructeur est cool !

Par exemple, de nombreuses personnes utilisent inconsciemment des "fonctions d'activation", même lorsqu'elles ne sont pas nécessaires. "Fonctions d'activation" = conversion de données vers une certaine plage de valeurs avec perte partielle ou totale d'informations - c'est comme une fonction de hachage pour un fichier.

Si l'entrée est constituée de données déjà normalisées, les "fonctions d'activation" entre les couches ne sont pas vraiment nécessaires. Vous ne pouvez pas vous débarrasser de la "fonction d'activation" dans Alglib.

J'ai tout un système de contrôle des changements sous la forme de Jenkins + MLFlow pour l'énumération des variantes et le stockage des résultats.

La configuration est maintenant la suivante :

Sequential(
  (input): Linear(in_features=2836, out_features=1000, bias=True)
  (hidden1): Linear(in_features=1000, out_features=100, bias=True)
  (hidden2): Linear(in_features=100, out_features=2, bias=True)
  (output_activ): Softmax()
)

Bien sûr, je n'ai pas compris immédiatement comment entraîner le réseau sur la carte vidéo au détriment de la latence des données. Maintenant mon code est optimisé et apprend 100 fois plus vite que la version originale en réduisant le nombre de téléchargements de données vers la carte vidéo.

 
Roffild:

Le constructeur est cool !

Par exemple, de nombreuses personnes utilisent inconsciemment des "fonctions d'activation", même lorsqu'elles ne sont pas nécessaires. "Fonctions d'activation" = conversion de données vers une certaine plage de valeurs avec perte partielle ou totale d'informations - c'est comme une fonction de hachage pour un fichier.

Si l'entrée est constituée de données déjà normalisées, les "fonctions d'activation" entre les couches ne sont pas vraiment nécessaires. Dans Alglib, vous ne pouvez pas vous débarrasser de la "fonction d'activation".

J'ai tout un système de contrôle des changements sous la forme de Jenkins + MLFlow pour l'énumération des variantes et le stockage des résultats.

La configuration est maintenant la suivante :

Bien sûr, je n'ai pas compris immédiatement comment entraîner le réseau sur la carte vidéo au détriment de la latence des données. Maintenant mon code est optimisé et apprend 100 fois plus vite que la version originale en réduisant le nombre de téléchargements de données vers la carte vidéo.

qu'en est-il de la couche récursive ? lstm ou gru

 
Roffild:

Le constructeur est cool !

Par exemple, de nombreuses personnes utilisent inconsciemment des "fonctions d'activation", même lorsqu'elles ne sont pas nécessaires. "Fonctions d'activation" = conversion de données vers une certaine plage de valeurs avec perte partielle ou totale d'informations - c'est comme une fonction de hachage pour un fichier.

Si l'entrée est constituée de données déjà normalisées, les "fonctions d'activation" entre les couches ne sont pas vraiment nécessaires. Vous ne pouvez pas vous débarrasser de la "fonction d'activation" dans Alglib.

J'ai tout un système de contrôle des changements sous la forme de Jenkins + MLFlow pour l'énumération des variantes et le stockage des résultats.

La configuration est maintenant la suivante :

Bien sûr, je n'ai pas compris immédiatement comment entraîner le réseau sur la carte vidéo au détriment de la latence des données. Maintenant mon code est optimisé et apprend 100 fois plus vite que la version originale en réduisant le nombre de téléchargements de données vers la carte vidéo.

La vitesse est cool, mais secondaire.
Votre société nationale réussit-elle à prédire l'avenir ? Si c'est le cas, il serait intéressant de voir le signal ou au moins les résultats du testeur avec l'avant.
 
Maxim Dmitrievsky:

qu'en est-il de la couche de récurrence ? lstm ou gru

Je pourrais ajouter, mais pour l'instant je veux tester complètement ma variante. Il me suffit d'ajouter une ligne au code pour modifier la structure du réseau. Nous ne traduisons pas un texte, mais reconnaissons un événement historique.

https://pytorch.org/docs/stable/nn.html - choisissez le calque de votre choix et ajoutez-le sur une ligne.

torch.nn¶
  • pytorch.org
class ¶ A kind of Tensor that is to be considered a module parameter. Parameters are subclasses, that have a very special property when used with s - when they’re assigned as Module attributes they are automatically added to the list of its parameters, and will appear e.g. in iterator. Assigning a Tensor doesn’t have such effect. This is...