L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1547
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je ne sais pas, c'est toujours différent.
Hmm, alors peut-être penser à un moyen de le découvrir ?
À propos, je peux construire un modèle en R à partir de vos données - si vous êtes intéressé par la comparaison de l'efficacité des méthodes.Hmm, alors pouvons-nous penser à un moyen de le découvrir ?
À propos, je peux construire un modèle en R à partir de vos données - si vous êtes intéressé par la comparaison de l'efficacité des méthodes.on ne peut déjà rien faire de mieux, le modèle est parfait et confirme la nature aléatoire de kotir
de nouvelles améliorations ne peuvent être apportées que par des méthodes différentes de travail avec les processus aléatoires, comme je l'ai écrit ci-dessus
on ne peut rien faire de mieux là, le modèle est parfait et confirme la nature aléatoire de kotir
D'autres améliorations ne peuvent être apportées que par des méthodes différentes de travail avec les processus aléatoires, comme je l'ai écrit ci-dessus.
Des solutions aléatoires pour des processus aléatoires me semble une méthode trop risquée dans son idéologie...
Je reviens à quelque chose que je voulais faire depuis longtemps : MO + stoh.
http://www.turingfinance.com/random-walks-down-wall-street-stochastic-processes-in-python/
Le sujet est intéressant, en particulier le modèle de saut de Merton ou une de ses variantes. Il semble que, contrairement à la diffusion conventionnelle, il ne soit pas réduit (par échantillonnage temporel) à une autorégression, ou qu'il le soit d'une manière non triviale. Peut-être que les calculs dans une fenêtre glissante pour un portefeuille seront tout à fait inabordables.
La forêt aléatoire est une histoire d'ajustement sans possibilité d'ajustement. J'ai exploité toutes les options de SL il y a un an.
La régression linéaire a beaucoup plus de chances de produire un bénéfice. Lors de la formation, vous devez alimenter les prix relatifs, et non les prix réels.
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Pytorch = TensorFlow 1.x + Keras + Numpy = TensorFlow 2.0
Quelle configuration de grille préférez-vous ?
Le constructeur est cool !
Par exemple, de nombreuses personnes utilisent inconsciemment des "fonctions d'activation", même lorsqu'elles ne sont pas nécessaires. "Fonctions d'activation" = conversion de données vers une certaine plage de valeurs avec perte partielle ou totale d'informations - c'est comme une fonction de hachage pour un fichier.
Si l'entrée est constituée de données déjà normalisées, les "fonctions d'activation" entre les couches ne sont pas vraiment nécessaires. Vous ne pouvez pas vous débarrasser de la "fonction d'activation" dans Alglib.
J'ai tout un système de contrôle des changements sous la forme de Jenkins + MLFlow pour l'énumération des variantes et le stockage des résultats.
La configuration est maintenant la suivante :
Bien sûr, je n'ai pas compris immédiatement comment entraîner le réseau sur la carte vidéo au détriment de la latence des données. Maintenant mon code est optimisé et apprend 100 fois plus vite que la version originale en réduisant le nombre de téléchargements de données vers la carte vidéo.
Le constructeur est cool !
Par exemple, de nombreuses personnes utilisent inconsciemment des "fonctions d'activation", même lorsqu'elles ne sont pas nécessaires. "Fonctions d'activation" = conversion de données vers une certaine plage de valeurs avec perte partielle ou totale d'informations - c'est comme une fonction de hachage pour un fichier.
Si l'entrée est constituée de données déjà normalisées, les "fonctions d'activation" entre les couches ne sont pas vraiment nécessaires. Dans Alglib, vous ne pouvez pas vous débarrasser de la "fonction d'activation".
J'ai tout un système de contrôle des changements sous la forme de Jenkins + MLFlow pour l'énumération des variantes et le stockage des résultats.
La configuration est maintenant la suivante :
Bien sûr, je n'ai pas compris immédiatement comment entraîner le réseau sur la carte vidéo au détriment de la latence des données. Maintenant mon code est optimisé et apprend 100 fois plus vite que la version originale en réduisant le nombre de téléchargements de données vers la carte vidéo.
qu'en est-il de la couche récursive ? lstm ou gru
Le constructeur est cool !
Par exemple, de nombreuses personnes utilisent inconsciemment des "fonctions d'activation", même lorsqu'elles ne sont pas nécessaires. "Fonctions d'activation" = conversion de données vers une certaine plage de valeurs avec perte partielle ou totale d'informations - c'est comme une fonction de hachage pour un fichier.
Si l'entrée est constituée de données déjà normalisées, les "fonctions d'activation" entre les couches ne sont pas vraiment nécessaires. Vous ne pouvez pas vous débarrasser de la "fonction d'activation" dans Alglib.
J'ai tout un système de contrôle des changements sous la forme de Jenkins + MLFlow pour l'énumération des variantes et le stockage des résultats.
La configuration est maintenant la suivante :
Bien sûr, je n'ai pas compris immédiatement comment entraîner le réseau sur la carte vidéo au détriment de la latence des données. Maintenant mon code est optimisé et apprend 100 fois plus vite que la version originale en réduisant le nombre de téléchargements de données vers la carte vidéo.
Votre société nationale réussit-elle à prédire l'avenir ? Si c'est le cas, il serait intéressant de voir le signal ou au moins les résultats du testeur avec l'avant.
qu'en est-il de la couche de récurrence ? lstm ou gru
Je pourrais ajouter, mais pour l'instant je veux tester complètement ma variante. Il me suffit d'ajouter une ligne au code pour modifier la structure du réseau. Nous ne traduisons pas un texte, mais reconnaissons un événement historique.
https://pytorch.org/docs/stable/nn.html - choisissez le calque de votre choix et ajoutez-le sur une ligne.