Optimisation et tests hors échantillon. - page 2

 
leonid553:

À la lumière de ce qui précède, je vois le chemin suivant :

Pour construire un simple conseiller expert supplémentaire, - et y charger tous les jeux de paramètres obtenus après la première optimisation.

Chaque ensemble aura son propre index. Et ensuite, nous insérons simplement cet EA supplémentaire dans le testeur à la place du premier et nous l'optimisons au-delà de l'échantillon, et le paramètre d'optimisation sera le NOMBRE LOCAL de jeux insérés !

C'est peut-être un peu délicat, mais c'est bien mieux que l'optimisation manuelle hors échantillon ...

Il ne nous reste plus qu'à considérer la polyvalence de ce complément.

L'idée est intéressante. Comme variante d'implémentation : Expert Advisor in deinitajoute ses paramètres et son critère d'optimisation au fichier destiné à l'écriture. Une fois l'optimisation terminée, le script trie les données du fichier par critère d'optimisation, conserve le nombre défini de meilleurs jeux de paramètres et les écrit dans le fichier en lecture seule. Lorsque l'optimisation est lancée, le conseiller expert dans l'initialisation lit ce fichier, etc. En d'autres termes, vous n'avez pas besoin d'un conseiller expert supplémentaire, mais d'un script supplémentaire.
 
FION:
leonid553:

À la lumière de ce qui précède, voici comment nous voyons les choses jusqu'à présent : .....

Je pense que cela ne fonctionnera pas aussi facilement, pour chaque paramètre à optimiser, plusieurs extrema seront identifiés lorsqu'ils seront liés à d'autres paramètres . Il peut être possible de trouver une solution si ces extrema sont introduits à l'entrée du réseau neuronal.

Dans ce dernier cas, nous n'optimisons que le nombre, rien de plus !

Et juste obtenir ce dont nous avons besoin. Ou j'ai mal compris votre message ?

 
Les gars, j'ai tout fait fonctionner depuis un bon moment maintenant.
Mais sous TradeStation, et pas gratuitement ... :))
Je ne vois pas l'intérêt de le faire sous MT, nous n'avons pas l'habitude de payer pour travailler.
 
Mak:
Les gars, j'ai tout fait fonctionner depuis un bon moment maintenant.
Mais sous TradeStation, et pas gratuitement ... :))
Je ne vois pas l'intérêt de le faire sous MT, nous n'avons pas l'habitude de payer pour travailler.


J'ai presque fini aussi)))) Et vous n'avez pas besoin d'intégrer quoi que ce soit dans le conseiller expert - le programmeur reçoit un fichier avec un ensemble de paramètres.
 
J'ai implémenté ceci sous MT4 il y a longtemps.
Il permet vraiment d'évaluer sobrement les perspectives des différents systèmes,
Et se débarrasser des illusions causées par la sur-optimisation.
Après cette deuxième optimisation, il ne reste plus que les vAriAs qui ont rapporté un bénéfice en dehors de l'échantillon ! <br / translate="no">En conséquence, dans l'idéal, nous obtenons des "paramètres idéaux" pour la suite des travaux et des tests en ligne !

Curieusement, les paramètres qui présentent un bénéfice en dehors de l'échantillon ne sont pas toujours rentables. D'autres critères de sélection sont également nécessaires.
 
Integer, voulez-vous dire une commande comme
terminal.exe "\tester\MyTests\MACDTest.ini"
dans une boucle avec le fichier de paramètres .set lui-même, qui doit également être mis à jour d'une manière ou d'une autre (si nous voulons exécuter, disons, 1000 tests avec différents gènes) ?
 
Mathemat:
Integer, voulez-vous dire une commande comme
terminal.exe "\tester\MyTests\MACDTest.ini"
dans une boucle avec le fichier de paramètres .set lui-même, qui doit aussi être mis à jour d'une manière ou d'une autre ?


En quelque sorte. Un programme externe crée un fichier .set, exécute le terminal, surveille le processus, puis lance un nouveau fichier .set, exécute à nouveau le terminal pour le tester, analyse le rapport après chaque test...
 
OK, l'idée générale est claire. Alors, la dernière question à tous ceux qui ont mis en œuvre ce projet (c'est-à-dire Belford, Mak, Integer) : cela en vaut-il la peine ? Bien sûr, il est agréable d'avoir un "optimiseur" qui ne se contente pas d'ajuster les courbes (comme metaquote) mais qui essaie également de tester la stratégie sur des données hors échantillon, mais mérite-t-il vraiment un score plus élevé que l'optimiseur MQ (qui est également bon, mais uniquement en tant qu'ajusteur de courbe) ?
 
Mathemat:
OK, l'idée générale est claire. Alors, la dernière question à tous ceux qui ont mis en œuvre ce projet (c'est-à-dire Belford, Mak, Integer) : cela en vaut-il la peine ? Bien sûr, il est agréable d'avoir un "optimiseur" qui ne se contente pas d'ajuster les courbes (comme metaquote) mais qui essaie également de tester la stratégie sur des données hors échantillon, mais mérite-t-il vraiment un score plus élevé que l'optimiseur MQ (qui est également bon, mais uniquement en tant qu'ajusteur de courbe) ?

Tout fera l'affaire pour le ménage. Il n'y a aucun intérêt à comparer avec MQ, car ce programme ne se teste pas lui-même, il fait seulement tourner un testeur
 
leonid553:
FION:
leonid553:

À la lumière de ce qui précède, voici comment nous voyons les choses jusqu'à présent : .....

Je pense que ce ne sera pas facile, pour chaque paramètre optimisé en relation avec d'autres paramètres, plusieurs extrema seront détectés. Il peut être possible de trouver une solution si ces extrema sont introduits dans l'entrée .

Dans ce dernier cas, nous n'optimisons que le nombre, rien de plus !

Et juste obtenir ce dont nous avons besoin. Ou j'ai mal compris votre message ?

Je voulais dire identifier la meilleure combinaison de tous les paramètres sans les sélectionner par l'équité, le drawdown ou la rentabilité. L'expérience montre que l'optimisation par un seul critère ne permet pas toujours de trouver la meilleure combinaison, c'est pourquoi un réseau neuronal basé sur une analyse multivariée peut donner de bons résultats.