L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 850
![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Combien y en a-t-il ? Il y a des moyens de le faire plus rapidement... La génétique... Aussi pour les conduire dans les ns...
recherche heuristique
Lequel vous faut-il ? Je le traite toujours avec un exposant avec p=0.5 pour obtenir le flux le plus simple de toute façon.
Si nous avons identifié le flux de coche que nous avons, par exemple, le k=4 d'Erlang, eh bien, si nous écartons Cauchy, pourquoi avons-nous besoin de le revoir avec l'exposant ? Quand on peut passer directement à Erlang k=5 et ainsi de suite ? Aligner davantage entre les ticks plutôt que de confondre et d'aligner en premier ?
La méthode la plus fiable consiste probablement à passer en revue les combinaisons de prédicteurs. Mais c'est très long(
Par augmentation de la complexité des modèles dans jPrediction, nous entendons l'augmentation progressive du nombre de prédicteurs. Parce que dans jPrediction le nombre de neurones dans la couche cachée est 2^(2*n+1), où n est le nombre de prédicteurs. En conséquence, plus le nombre de prédicteurs augmente, plus la complexité du modèle (le nombre de neurones dans la couche cachée) augmente. Ainsi, en augmentant progressivement la complexité du modèle, jPrediction atteindra tôt ou tard la valeur M, après quoi une nouvelle augmentation de la complexité du modèle entraînera une nouvelle diminution de la généralisabilité (augmentation des erreurs de généralisabilité).
Je suis tombé sur le post de Reshetov sur le nombre de neurones.
Si j'ai 10 prédicteurs, j'obtiens 2^21 = 2097152 neurones.
Ce n'est pas trop ?
Même pour 3 prédicteurs, il y a 128 neurones...
Je suis tombé sur le post de Reshetov sur le nombre de neurones.
S'il y a 10 prédicteurs, cela fait 2^21 = 2097152 neurones.
Ce n'est pas beaucoup ?
Même pour 3 prédicteurs, cela ferait 128 neurones...
N = 2^i - 1
1023 neurones pour 10 entrées, c'est mieux.
Mais à en juger par les articles, on en utilise beaucoup moins dans la pratique, par exemple n=sqrt(#inputs * #outputs)
Apparemment N = 2^i - 1 - pour la mémorisation exacte, et les formules avec un nombre inférieur - pour la généralisation.
La sélection de prédicteurs la plus fantaisiste dans caret : gafs - sélection génétique de prédicteurs ; rfe - sélection inverse de prédicteurs (la plus rapide) ; safs - stabilité simulée de la sélection de prédicteurs (recuit) - la plus efficace.
J'ai essayé rfe sur une matrice 12*6400 - environ 10 heures de lecture avec les paramètres par défaut (tailles = 2^(2:4)), je n'ai pas attendu et je l'ai éteint. J'ai pensé à un pépin, j'ai redémarré avec sizes = ncol(x) - une heure déjà compte.
Mise à jour : la deuxième exécution avec sizes = ncol(x) a terminé le calcul en 2,5 - 3 heures, les résultats sont proches des paquets qui prennent 3-5 minutes pour traiter les mêmes données.Si rfe est le plus rapide, combien de temps les autres attendent-ils ?
Les paquets précédents que j'ai essayés ne prenaient pas plus de 5 minutes pour les mêmes données.
Ça a été si long pour vous ?
Setting , rfeControl = rfeControl(number = 1,repeats = 1) - temps réduit à 10-15 minutes, changements - 2 paires de prédicteurs échangés, mais généralement similaires.
J'ai essayé rfe sur une matrice 12*6400, ça a duré environ 10 heures avec les paramètres par défaut (tailles = 2^(2:4)), je n'ai pas attendu et je l'ai éteint. J'ai pensé à un pépin, j'ai redémarré avec sizes = ncol(x) - une heure déjà compte.
Mise à jour : la deuxième exécution avec sizes = ncol(x) a terminé le calcul en 2,5 - 3 heures, les résultats sont proches des paquets qui prennent 3-5 minutes pour traiter les mêmes données.Si rfe est le plus rapide, combien de temps les autres attendent-ils ?
Les paquets précédents que j'ai essayés ne prenaient pas plus de 5 minutes pour les mêmes données.
Est-ce que ça a été aussi long pour vous ?
Je ne me souviens pas exactement, c'était il y a longtemps, mais des passions comme les vôtres ne restent pas dans ma mémoire.
La matrice est commune pour moi.
MAIS
Je ne me souviens pas exactement, c'était il y a longtemps, mais des passions comme les vôtres ne restent pas dans ma mémoire.
La matrice est commune pour moi.
MAIS
2 classes
Chargé 1 noyau
Le réglage , rfeControl = rfeControl(number = 1,repeats = 1) - a réduit le temps à 10-15 minutes. Changements dans les résultats - 2 paires de prédicteurs échangées, mais globalement similaires à la valeur par défaut.