Une bibliothèque rapide et gratuite pour MT4, pour le plus grand plaisir des neuralnetworkers. - page 4

 
Figar0 писал(а) >>

Z.I. Bien que mon EA n'ait pas eu de résultats aussi radicalement différents, cela pourrait dépendre de nombreuses conditions.

Votre EA utilise-t-il un indicateur différent pour l'entrée ?

Les pondérations initiales peuvent être différentes, mais le résultat final sur les mêmes données d'entrée devrait être à peu près le même résultat de formation.

Sinon, c'est un hasard difficile, pas un entraînement.

 
mgribachev >> :

La 2ème optimisation a été faite à partir de "0" sur les mêmes données avec les mêmes paramètres.

Il n'y a rien à "apprendre", car il s'agit d'une nouvelle formation, mais elle donne des résultats complètement différents.

Dans le cas de l'apprentissage d'une nouvelle grille, les poids initiaux sont initialisés avec des nombres aléatoires. Comme les poids initiaux sont différents, l'apprentissage des mailles sera également différent et le résultat final sera également différent.


Quel est l'intérêt de supprimer les grilles déjà formées et de les former à nouveau ?


Je n'optimise la formation qu'après des trades perdants. Dans la plupart des cas, le StopLoss reste le même et l'Expert Advisor n'a besoin que de recharger le terminal pour charger les nouvelles grilles, car le chargement à partir des fichiers se trouve dans init(). Si le StopLoss est modifié, il doit être modifié dans les paramètres du conseiller expert de trading.


La ré-optimisation peut être effectuée à la volée, c'est-à-dire que si les EAs traitent en même temps, l'optimiseur n'interfère pas avec eux.

 
mgribachev писал(а) >>

Votre EA utilise-t-il un indicateur différent pour l'entrée ?

Les entrées sont différentes, mais le plus important est probablement le fait que la période d'apprentissage est beaucoup plus longue...

 
mgribachev >> :

Bonjour Yuri.

Si vous pouviez avoir la gentillesse d'expliquer pourquoi il y a deux optimisations distinctes pour votre EA,

...

x : 1 à 5000 étape 1

...

Les pondérations initiales peuvent être différentes, mais le résultat final sur les mêmes données d'entrée devrait être à peu près le même résultat de formation.

Sinon, c'est un hasard difficile, pas un entraînement.


Ne trouvez pas difficile de lire attentivement les instructions de l'EA concernant les valeurs de x lors de l'optimisation et ne posez plus de questions stupides.


Si vous faites votre propre truc, alors :


Ne blâmez pas le miroir lorsque vous avez tort (de Kozma Prutkov)

 
Reshetov писал(а) >>

Lorsqu'une nouvelle grille est formée, les poids initiaux sont initialisés avec des nombres aléatoires.

Puisque les poids initiaux sont différents, la formation des grilles sera également différente et le résultat final sera également différent.

Quel est l'intérêt de supprimer les grilles déjà formées et de les former à nouveau ?

Je n'effectue l'optimisation - l'entraînement à la grille - qu'après des transactions perdantes. Le plus souvent, le StopLoss reste le même et pour que l'EA charge de nouvelles grilles, il suffit de recharger le terminal, car le chargement à partir des fichiers se fait dans init(). Si le StopLoss est modifié, vous devez également le modifier dans les paramètres de l'EA de trading.

La ré-optimisation peut être effectuée à la volée, c'est-à-dire que si le conseiller expert est en train de négocier à ce moment-là, l'optimiseur n'interfère pas avec lui.

L'exemple montre les paramètres initiaux de 2 stratégies différentes, entraînées sur les mêmes données, la même période, avec les mêmes paramètres d'entraînement, pour le même Expert Advisor.

Passage Profit Total des transactions Rentabilité Gain attendu Drawdown $ Bénéfice (%)
54 1036.25 38 1.86 27.27 300.99 48.67
Passage Profit Total des transactions Rentabilité Gain attendu Drawdown $ Bénéfice (%)
24 880.85 168 1.26 5.24 287.04 30.80

À partir de cet exemple, il s'ensuit que si les paramètres initiaux de deux réseaux formés de manière identique sont différents, leur formation ultérieure (amélioration) sera différente.

Si j'ai bien compris, tous les entraînements (optimisations) suivants doivent être effectués sans supprimer les données du répertoire ANN, en prolongeant simplement l'intervalle d'optimisation en ajoutant une nouvelle période (un jour ou une semaine), c'est-à-dire que la date de début de l'intervalle ne doit pas changer pendant une nouvelle optimisation ?

 
Reshetov писал(а) >>

Veuillez lire attentivement les instructions de l'EA pour savoir quelles doivent être les valeurs de x pendant l'optimisation et ne posez plus de questions stupides.

Si tu le fais pour toi, alors :

Ne blâmez pas le miroir lorsque vous avez tort (de Kozma Prutkov)

Je suis désolé, je n'ai pas bien compris que x de 0 à 1000000 est une condition difficile.

 
mgribachev >> :

Je suis désolé, je n'avais pas réalisé que x de 0 à 1000000 est une condition dure.

Vous n'avez pas à demander ou à demander quoi que ce soit.


Les gens normaux font d'abord tout selon les instructions, puis expérimentent, si la compétence est suffisante, à leurs propres risques.

Les anormaux le font d'un seul coup à travers le... Et ensuite, ils commencent à se plaindre.

 

mgribachev писал(а) >>


Si j'ai bien compris, tous les entraînements (optimisations) ultérieurs doivent être effectués sans effacer les données du catalogue ANN, en prolongeant simplement l'intervalle d'optimisation en ajoutant une nouvelle période (un jour ou une semaine), c'est-à-dire que la date de début de l'intervalle doit rester inchangée pendant la nouvelle optimisation ?

Je ne sais même pas comment répondre pour que ce soit plus pertinent ? Essayez d'abord de répondre à votre question :


Si vous voulez regarder un autre programme à la télévision, quelles seraient les actions :


1. Regarder sur la télévision précédente ?

2. Retirer l'ancien téléviseur, en acheter un nouveau et regarder sur celui-ci ?


Relisez attentivement le manuel de l'EA pour voir s'il est question de retirer les grilles.

 
marketeer >> :

Quelqu'un peut-il expliquer quelque chose dans les exemples de FANN ? En particulier, dans le fichier cascade_train.c, la chose suivante est écrite :

Je ne comprends probablement pas quelque chose, mais il semble que chaque paire suivante de téléchargements de fichiers de formation et de test écrase les précédents. Pourquoi cela se produit-il ? De plus, il y a une fuite de mémoire car fann_destroy_train(data) n'est pas appelé entre les chargements ;

Et ce n'est pas tout :

Quel est l'intérêt ?

Quelqu'un a décomplémenté toutes les options. Il n'y a pas de telles erreurs dans le code provenant du CVS.

 
J'ai décidé d'essayer EA et FANN, mais pendant l'optimisation, le terminal se bloque avec une erreur, qu'est-ce qui ne va pas ?