Mécanisation de la sélection optimale des paramètres. Trouver un dénominateur commun.

 
Bonjour ! Je suis convaincu que chaque constructeur de MTS (ou la grande majorité des constructeurs) a réfléchi à la question : quels sont les résultats de l'Optimizer Optimal ? Ce sujet a bien sûr été abordé sur le forum à de nombreuses reprises... et des règles simples telles que : rentabilité plus élevée, drawdown plus faible, courbe d'équilibre lisse... ont été mémorisées comme une table de multiplication. Cependant, il n'y a pas eu de formalisation claire des critères de sélection, et surtout, aucune analyse de leur poids comparatif... C'est-à-dire que, bien sûr, les tableaux et leur traitement ultérieur avec MS Office sont compréhensibles, accessibles, mais hélas pas efficaces, en tout cas en ce qui concerne le "résultat"/"coût du temps". Supposons que vous ayez une centaine ou deux "ensembles de résultats" et que cela ne vaille probablement pas la peine d'essayer, mais si vous avez cent ou deux mille ensembles... Vous sentez la différence ? Et si vous prenez aussi en compte les bizarreries du testeur... Je propose donc de discuter de l'"optimisation de l'optimisation" et d'élaborer un coefficient commun (dans la mesure du possible) pour estimer la qualité d'un ensemble de paramètres d'optimisation pour tout SCM.
 

Si ce fil de discussion devient une continuation digne de ce nom et trouve des réponses aux questions soulevées ici, j'en serais très heureux.

..........

Modérateurs : Messieurs, je vous demande de prendre ce fil sous un contrôle spécial, et de mettre immédiatement fin à toute tentative de le plonger dans l'inondation.

Aux membres de la communauté : Chers collègues, je vous demande de vous exprimer sur le fond. Pour la communication et la clarification des relations sur le forum est en privé.

 
Si nous imaginons que la "qualité de l'ensemble" = (profit/(temps*dépo))*K - alors ce même "K" (si vous voulez, l'efficacité) aidera à simplifier considérablement l'analyse des résultats d'optimisation (et simplement à la mécaniser) et permettra probablement à l'avenir de comparer objectivement différents MTS...
 
lasso:

aux questions soulevées ici, j'en serais très heureux.

Depuis lors, je suis devenu très versé dans ces questions). Rien ne me rassure, chaque classe de TS a ses propres critères par essais et erreurs, en tenant compte des caractéristiques de la TS. Je ne peux pas utiliser les universels, ils fonctionnent ici et pas là... Je crois qu'il y a une grande différence entre le pipsator et le système inverse. Et vous ne pouvez pas les mesurer avec un seul mètre.
 
Si vous ne tracez pas une ligne claire entre l'optimisation et le bricolage, vous pouvez oublier d'emblée les objectifs de la branche.
 
Mischek:
Si vous ne tracez pas une ligne claire entre l'optimisation et le bricolage, vous pouvez oublier d'emblée les objectifs de la branche.
Existe-t-il une telle limite ?)
 
OnGoing:
Y a-t-il une frontière ?)


1 Cela n'a pas d'importance, c'est juste que si vous ne marquez pas la limite, la branche s'appellera en fait - "Mécanisation de la sélection des paramètres d'ajustement optimal".

2 Bien sûr qu'il y en a. Vous pouvez jurer sur le libellé pendant longtemps, très longtemps, mais si vous ne passez pas cette partie de la route, la branche s'appellera en fait - "Mécanisation de la sélection des paramètres d'ajustement optimal".

 
Mischek:
Si vous ne tracez pas une ligne claire entre l'optimisation et le bricolage, vous pouvez oublier d'emblée les objectifs de la branche.

Supposons que nous n'ayons pas besoin de distinguer quoi que ce soit... supposez... :))) que nous devons mesurer la longueur d'un boa constrictor... pas dans les perroquets ou les singes, mais dans un étalon "commun"...
 
Je pense que l'auteur a mis en commun ses idées.
Commençons par le commencement :
1. Le critère est une condition nécessaire et suffisante ; il est toujours un.
2. Le critère est entièrement déterminé par l'objectif d'optimisation.
3. L'objectif est soit d'estimer la qualité de l'ensemble, soit l'adéquation de l'ensemble des paramètres d'optimisation, soit de comparer différents SCM...
4. Que va-t-il se passer ensuite ?
 
Le0n:

Supposons que nous n'ayons pas besoin de délimiter quoi que ce soit... supposez... :))) que nous devons mesurer la longueur du boa constrictor... pas dans les perroquets ou les singes, mais dans un critère "commun"...

Je suis d'accord pour assumer. Mais pour éviter de revenir en arrière, je dois connaître les conditions de la prise en charge. Par exemple, l'ajustement n'existe pas dans la nature. Tout est optimisation. OK.

Nous devons maintenant comprendre ce qui se cache derrière "la qualité de l'ensemble des paramètres d'optimisation".

 
Mischek:
Si vous ne faites pas une distinction claire entre l'optimisation et l'adaptation, vous pouvez immédiatement oublier les objectifs de la branche.

Copié du fil Où se situe la limite entre l'ajustement et les modèles réels ?

Je pense que c'est la limite.

=========================================================

Le critère (ou la limite) recherché dans ce fil ne devrait pas dépendre du type de TS.

J'ai cité ce TS uniquement à titre d'exemple clair pour tous.

.......................

Ok. Posons le problème dans l'autre sens :

Vous avez besoin de n'importe quel TS disponible par n'importe quelle optimisation dans le testeur (même la plus sévère sur-optimisation) produisent finalement les résultats suivants:

1) Nombre de transactions en 1 an au moins 250-300.

2) L'espérance mathématique d'au moins deux écarts.

3) Que le facteur de récupération soit égal à quatre (minimum).

.............

Qui peut présenter un rapport de testeur avec ces résultats ?

Immédiatement, je vois une forêt de mains...

Ah, oui, j'ai complètement oublié :

4) Gamme d'essais tous les antécédents disponibles de 1999 à 12.2010 (12 ans)

=====================

Si quelqu'un peut montrer quelque chose comme ça,

ce serait apprécié.

PS Et probablement surpris. ))