Meccanizzazione della selezione ottimale dei parametri. Trovare un denominatore comune.

 
Sono convinto che ogni costruttore MTS (o la stragrande maggioranza dei costruttori) abbia pensato alla domanda: quali sono i risultati dell'ottimizzatore ottimale? Questo argomento è stato naturalmente toccato molte volte sul forum... e regole semplici come: maggiore redditività, minore drawdown, curva di equilibrio regolare... sono stati memorizzati come una tabella di moltiplicazione. Tuttavia, non c'era una chiara formalizzazione dei criteri di selezione e, soprattutto, nessuna analisi del loro peso comparativo... Cioè naturalmente le tabelle e la loro successiva elaborazione con MS Office è comprensibile, accessibile, ma ahimè non efficace, in ogni caso per quanto riguarda il "risultato"/"costi di tempo". Supponiamo che tu abbia un centinaio o due "insiemi di risultati" e probabilmente non vale la pena provare, ma se hai cento o duemila insiemi... Senti la differenza? E se si tiene conto anche delle stranezze del tester... Quindi, propongo di discutere di "Ottimizzazione dell'ottimizzazione" e di elaborare qualche coefficiente comune (il più possibile) per stimare la bontà dell'insieme dei parametri di ottimizzazione per qualsiasi MTS.
 

Se questo thread diventa una degna continuazione e trova risposte alle domande qui sollevate, sarei molto felice.

..........

Moderatori: Signori, vi chiedo di prendere questo thread sotto un controllo speciale, e di porre fine immediatamente a qualsiasi tentativo di farlo precipitare nell'inondazione.

Ai membri della comunità: Colleghi, vi chiedo di parlare nel merito. Per la comunicazione e il chiarimento delle relazioni sul forum è in privato.

 
Se immaginiamo che "qualità del set"=(profitto/(tempo*depo))*K - allora proprio questo "K" (se volete, efficienza) aiuterà a semplificare significativamente l'analisi dei risultati dell'ottimizzazione (e a meccanizzarla) e probabilmente in futuro permetterà di confrontare oggettivamente diversi MTS...
 
lasso:

alle questioni sollevate qui, ne sarei molto felice.

Da allora sono diventato molto esperto in queste questioni). Non sono confortato da nulla, ogni classe di TS ha i suoi criteri per tentativi ed errori, tenendo conto delle caratteristiche della TS. Non posso usare quelli universali, funzionano qui e non lì... Credo che ci sia una grande differenza tra pipsator e sistema inverso. E non si possono misurare con un metro.
 
Se non si traccia una linea chiara tra l'ottimizzazione e l'armeggiare, ci si può dimenticare subito degli obiettivi del ramo.
 
Mischek:
Se non si traccia una linea chiara tra l'ottimizzazione e l'armeggiare, ci si può dimenticare subito degli obiettivi del ramo.
Esiste un tale confine?).
 
OnGoing:
C'è un confine?).


1 Non importa, è solo che se non si segna il confine, il ramo sarà effettivamente chiamato - "Meccanizzazione della selezione dei parametri di adattamento ottimale".

2 Certo che c'è. Si può imprecare a lungo, molto a lungo, ma se non si supera questa parte della strada, il ramo si chiamerà effettivamente - "Meccanizzazione della selezione dei parametri di adattamento ottimale".

 
Mischek:
Se non si traccia una linea chiara tra l'ottimizzazione e l'armeggiare, ci si può dimenticare subito degli obiettivi del ramo.

Supponiamo di non dover distinguere nulla... basta supporre... :))) che dobbiamo misurare la lunghezza di un boa constrictor... non nei pappagalli o nelle scimmie, ma in un metro di misura "comune"...
 
imho, un formidabile pasticcio di pensieri da parte dello scrittore.
Prima le cose importanti:
1. Il criterio è una condizione necessaria e sufficiente; lo è sempre.
2. Il criterio è interamente determinato dall'obiettivo di ottimizzazione.
3. Lo scopo è quello di stimare la qualità dell'insieme, o l'adeguatezza dei parametri di ottimizzazione impostati, o di confrontare diversi MTS...
4. Cosa succederà dopo?
 
Le0n:

Supponiamo di non dover delimitare nulla... basta supporre... :))) che dobbiamo misurare la lunghezza del boa constrictor... non nei pappagalli o nelle scimmie, ma in qualche metro "comune"...

Sono d'accordo nel supporre. Ma per evitare di tornare indietro, ho bisogno di conoscere le condizioni per assumere. Per esempio, il montaggio non esiste in natura. Tutto è ottimizzazione. OK.

Ora dobbiamo capire cosa si nasconde dietro "la bontà del set di parametri di ottimizzazione" ?

 
Mischek:
Se non si fa una chiara distinzione tra ottimizzazione e adattamento, ci si può dimenticare subito degli obiettivi del ramo.

Copiato dal thread Dov'è la linea tra il montaggio e i modelli reali?

Credo che questo sia il confine.

=========================================================

Il criterio (o limite) ricercato in questo thread non dovrebbe dipendere dal tipo di ST.

Ho citato questo TS solo come esempio chiaro per tutti.

.......................

Ok. Poniamo un problema dalla direzione opposta:

Avete bisogno di qualsiasi TS disponibile da qualsiasi ottimizzazione nel tester (anche la più grave sovraottimizzazione) per produrre finalmente i seguenti risultati:

1) Numero di transazioni in 1 anno almeno 250-300.

2) L'aspettativa matematica di almeno due spread.

3) Che il fattore di recupero sia uguale a quattro (minimo).

.............

Chi può presentare un rapporto del tester con questi risultati?

Immediatamente vedo una foresta di mani...

Ah, sì, l'avevo completamente dimenticato:

4) Gamma di test tutta la storia disponibile dal 1999 al 12.2010 (12 anni)

=====================

Se qualcuno può mostrare qualcosa di simile,

sarebbe apprezzato.

PS E probabilmente sorpreso. ))