L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 850

 
Ilnur Khasanov:
Combien y en a-t-il ? Il y a des moyens de le faire plus rapidement... La génétique... Aussi pour les conduire dans les ns...

recherche heuristique

 
Alexander_K2:

Lequel vous faut-il ? Je le traite toujours avec un exposant avec p=0.5 pour obtenir le flux le plus simple de toute façon.

Si nous avons identifié le flux de coche que nous avons, par exemple, le k=4 d'Erlang, eh bien, si nous écartons Cauchy, pourquoi avons-nous besoin de le revoir avec l'exposant ? Quand on peut passer directement à Erlang k=5 et ainsi de suite ? Aligner davantage entre les ticks plutôt que de confondre et d'aligner en premier ?

 
elibrarius:

La méthode la plus fiable consiste probablement à passer en revue les combinaisons de prédicteurs. Mais c'est très long(

Pas à notre façon. Ça peut être fait à l'infini. Jusqu'à ce que ce soit complètement accablant.
 
Regardez qui parle !!!! Cela valait la peine de reprendre le fil...... J'ai pris ma décision. Ce n'est pas aussi lisse que je le voudrais. Eh bien, c'est la façon dont le marché est maintenant ...... Incertitude excessive due aux événements mondiaux.... Il n'y a pas de stabilité, ce qui fait que je dois refaire des choses presque tous les deux jours. J'attends donc que la situation se stabilise en mode occupé et je continue à travailler.....
 
Yury Reshetov:

Par augmentation de la complexité des modèles dans jPrediction, nous entendons l'augmentation progressive du nombre de prédicteurs. Parce que dans jPrediction le nombre de neurones dans la couche cachée est 2^(2*n+1), où n est le nombre de prédicteurs. En conséquence, plus le nombre de prédicteurs augmente, plus la complexité du modèle (le nombre de neurones dans la couche cachée) augmente. Ainsi, en augmentant progressivement la complexité du modèle, jPrediction atteindra tôt ou tard la valeur M, après quoi une nouvelle augmentation de la complexité du modèle entraînera une nouvelle diminution de la généralisabilité (augmentation des erreurs de généralisabilité).

Je suis tombé sur le post de Reshetov sur le nombre de neurones.
Si j'ai 10 prédicteurs, j'obtiens 2^21 = 2097152 neurones.
Ce n'est pas trop ?
Même pour 3 prédicteurs, il y a 128 neurones...

 
elibrarius:

Je suis tombé sur le post de Reshetov sur le nombre de neurones.
S'il y a 10 prédicteurs, cela fait 2^21 = 2097152 neurones.
Ce n'est pas beaucoup ?
Même pour 3 prédicteurs, cela ferait 128 neurones...

Tu es hilarante))
 
Vizard_:

N = 2^i - 1

1023 neurones pour 10 entrées, c'est mieux.
Mais à en juger par les articles, on en utilise beaucoup moins dans la pratique, par exemple n=sqrt(#inputs * #outputs)
Apparemment N = 2^i - 1 - pour la mémorisation exacte, et les formules avec un nombre inférieur - pour la généralisation.

 
SanSanych Fomenko:

La sélection de prédicteurs la plus fantaisiste dans caret : gafs - sélection génétique de prédicteurs ; rfe - sélection inverse de prédicteurs (la plus rapide) ; safs - stabilité simulée de la sélection de prédicteurs (recuit) - la plus efficace.

J'ai essayé rfe sur une matrice 12*6400 - environ 10 heures de lecture avec les paramètres par défaut (tailles = 2^(2:4)), je n'ai pas attendu et je l'ai éteint. J'ai pensé à un pépin, j'ai redémarré avec sizes = ncol(x) - une heure déjà compte.
Si rfe est le plus rapide, combien de temps les autres attendent-ils ?
Les paquets précédents que j'ai essayés ne prenaient pas plus de 5 minutes pour les mêmes données.
Ça a été si long pour vous ?

Mise à jour : la deuxième exécution avec sizes = ncol(x) a terminé le calcul en 2,5 - 3 heures, les résultats sont proches des paquets qui prennent 3-5 minutes pour traiter les mêmes données.
Setting , rfeControl = rfeControl(number = 1,repeats = 1) - temps réduit à 10-15 minutes, changements - 2 paires de prédicteurs échangés, mais généralement similaires.
 
elibrarius:

J'ai essayé rfe sur une matrice 12*6400, ça a duré environ 10 heures avec les paramètres par défaut (tailles = 2^(2:4)), je n'ai pas attendu et je l'ai éteint. J'ai pensé à un pépin, j'ai redémarré avec sizes = ncol(x) - une heure déjà compte.
Si rfe est le plus rapide, combien de temps les autres attendent-ils ?
Les paquets précédents que j'ai essayés ne prenaient pas plus de 5 minutes pour les mêmes données.
Est-ce que ça a été aussi long pour vous ?

Mise à jour : la deuxième exécution avec sizes = ncol(x) a terminé le calcul en 2,5 - 3 heures, les résultats sont proches des paquets qui prennent 3-5 minutes pour traiter les mêmes données.

Je ne me souviens pas exactement, c'était il y a longtemps, mais des passions comme les vôtres ne restent pas dans ma mémoire.

La matrice est commune pour moi.

MAIS

  • Cible - combien de classes ? J'ai toujours deux classes.
  • Je charge toujours tous les cœurs de mon XEON 1620, et il tourne 20% plus vite que son homologue en fréquence.
  • Quelle est l'estimation ?
En général, il faut être extrêmement prudent, il est très facile de surcharger un ordinateur pendant une journée. Vous devez comprendre ce que fait l'algorithme.
 
SanSanych Fomenko:

Je ne me souviens pas exactement, c'était il y a longtemps, mais des passions comme les vôtres ne restent pas dans ma mémoire.

La matrice est commune pour moi.

MAIS

  • Cible - combien de classes ? J'ai toujours deux classes.
  • Je charge toujours tous les cœurs de mon XEON 1620, et il tourne 20% plus vite que son homologue en fréquence.
  • Quelle est l'estimation ?
En général, il faut être extrêmement prudent, il est très facile de surcharger un ordinateur pendant une journée. Vous devez comprendre ce que fait l'algorithme.

2 classes
Chargé 1 noyau

Le réglage , rfeControl = rfeControl(number = 1,repeats = 1) - a réduit le temps à 10-15 minutes. Changements dans les résultats - 2 paires de prédicteurs échangées, mais globalement similaires à la valeur par défaut.