L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2842

 
Aleksey Nikolayev #:

Anche voi, di fatto, state facendo un'ottimizzazione. Avete inventato un criterio di "stazionarietà delle caratteristiche" e prendete le caratteristiche ottimali in base ad esso. È la stessa ottimizzazione nella storia, ma nel profilo.

Dovremmo assolutamente inventare un criterio di robustezza delle TS e ottimizzare in base ad esso) Otterremo di nuovo la stessa ottimizzazione nella storia,ma in un profilo diverso).

Ottimo, in termini di tolleranza.

Andate in un negozio, scegliete i pantaloni - ottimizzazione in base alla vostra figura!

Qui stiamo parlando di qualcosa di completamente diverso: il perfezionamento degli algoritmi di ottimizzazione disponibili nei modelli. Mi oppongo al perfezionamento di algoritmi di ottimizzazione già integrati. C'è un algoritmo nel tester - bene. L'affinamento di questo algoritmo non vi permetterà di ottenere un TS redditizio da uno prosciugante. Lo stesso vale per gli algoritmi incorporati nei modelli.

Inoltre, bisogna fare molta attenzione quando si ottimizzano i parametri del modello, perché si può facilmente riqualificare il modello.

Sono arrivato alla riflessione più importante: l'indubbio legame tra ottimizzazione e sovrallenamento del modello. Il modello deve essere sempre lasciato abbastanza "grezzo" e non è certo necessario ottenere degli ottimi globali.


Quando cerco un elenco accettabile di predittori - ottimizzazione nel senso dei pantaloni. Ma il significato è molto diverso: cercare di evitare "l'immondizia dentro - l'immondizia fuori". C'è una differenza qualitativa rispetto al tentativo di trovare l'algoritmo "giusto" che trovi l'optimum globale. Nessun optimum globale darà un TS redditizio sui rifiuti.

 

Maxim Vladimirovich, cosa ne pensi del clustering quantistico?

https://github.com/enniogit/Quantum_K-means

 
Aleksey Nikolayev #:

La parola "ottimizzazione" ha una cattiva reputazione sul nostro forum per ovvi motivi. Pertanto, è comprensibile che si voglia in qualche modo starne alla larga e che non si usi nemmeno la parola stessa. Tuttavia, qualsiasi addestramento di un modello MO è quasi sempre un'ottimizzazione, quindi non si possono togliere le parole da una canzone.

Non voglio ferire nessuno, né insegnare loro la vita o spiegare come fare affari) Scrivo solo con la flebile speranza che metaquote tenga conto delle mie osservazioni quando implementerà il MO in MT5.


come è stato tolto dalla lingua... C'è un vero e proprio atteggiamento negativo nei confronti del concetto di "ottimizzazione".
Aggiungerei solo che bisogna sempre ricordare che il modello (TS) è primario, l'ottimizzazione è secondaria. Se il modello non funziona, l'ottimizzazione non aggiunge robustezza.
In realtà, esistono TS che funzionano con un'ampia gamma di parametri, ma anche in questi sistemi esistono parametri ottimali che alla fine daranno un risultato di trading più elevato. in altre parole, l'ottimizzazione non può, per definizione, peggiorare il modello.
Quando si costruisce un sistema di trading, il modello è importante in primo luogo, i suoi criteri di valutazione in secondo luogo, e solo successivamente viene l'ottimizzazione.
Se qualcuno dice che l'ottimizzazione è il male, significa che ha sbagliato la sequenza.
Solo comprendendo quanto sopra, si può arrivare a capire che, comunque sia, è impossibile ottenere il MO senza ottimizzazione.
Il tester e l'ottimizzatore come insieme hanno guadagnato notorietà solo per il fatto che gli utenti creano una schifezza e pensano che dopo l'ottimizzazione questa schifezza sarà redditizia. no, non lo sarà, ecco perché sarà una schifezza. questo è facilitato dalla facilità di creare Expert Advisor in ME e dalla disponibilità di varianti già pronte nella fornitura. ma allo stesso tempo non ci sono praticamente strumenti per valutare la strategia di creazione di cluster di insiemi di lavoro. la cosa buona è che µl colma questa lacuna in pieno.
Per riassumere quanto detto sopra possiamo concludere che gli algoritmi di ottimizzazione renderanno le persone di successo ancora più di successo (questo vale per qualsiasi ambito dell'attività umana), e purtroppo le persone infelici ancora più infelici. il motivo è semplice: priorità stabilite in modo errato.
anche le auto di formula uno sono accuratamente ottimizzate, perché? perché queste auto sono buone così come sono))) la risposta è semplice, sono ottimizzate in base ai criteri di utilizzo del conducente dell'auto. anche se le caratteristiche generali delle auto sono le stesse, ma la messa a punto consente di regolare l'auto ad esempio sulla curva di accelerazione, un altro pilota preferirà una velocità più elevata in linea retta. nessuno dei conducenti delle auto pensa "l'ottimizzazione è una merda!, che diavolo mi serve, guiderò di default!" - altrimenti si perderà, si avranno figli affamati, una moglie arrabbiata e tutte le altre delizie del fallimento.

Da qui la sequenza necessaria per il successo: auto (TC) - criteri di messa a punto (criteri di valutazione della TC) - ottimizzazione.
In linea di principio non sono possibili altre sequenze corrette.
 
Vorrei anche aggiungere che gli algoritmi di ottimizzazione sono prima di tutto algoritmi di ricerca, non servono solo a cercare i parametri della MASCHERA, come molti pensano.
Si possono fare cose molto più complesse e non banali.
 
Andrey Dik #:

In altre parole, l'ottimizzazione non può, per definizione, degradare il modello.

Questo è corretto per i sistemi di controllo automatico, ma assolutamente NON corretto per i modelli che operano nei mercati finanziari con processi non stazionari. Esiste un male, un male assoluto, chiamato "overtraining". Questo è il male principale (dopo la spazzatura degli input) che rende completamente inutilizzabile qualsiasi modello. Un buon modello dovrebbe sempre essere sub-ottimale, una sorta di grossolano della realtà. Credo che sia l'optimum globale a contribuire in modo particolare all'overtraining del modello.

 
un altro punto importante.
Meno parametri ci sono, meglio si comporta il modello nella catena di
modello - criterio - ottimizzazione,
Mentre i gradi di libertà aumentano, e questo è un male, aumentare il numero di criteri o di parametri del criterio, al contrario, riduce i gradi di libertà del modello, agendo come una sorta di "confini".
Per quanto riguarda il numero di parametri di AO, mi riferisco agli svantaggi del gran numero di possibilità di regolazione, in quanto questo complica l'applicazione pratica di AO, anche se, nelle mani abili di un ricercatore che capisce cosa sta facendo, permette di ottenere ulteriori vantaggi in termini di qualità e velocità di ottimizzazione, in qualche modo riducendo indirettamente la variabilità del modello ancora di più, se ha troppi parametri. questo è spesso il caso delle reti neurali.
 
СанСаныч Фоменко #:

Idea giusta per i sistemi di controllo automatico, ma assolutamente NON giusta per i modelli che operano nei mercati finanziari con processi non stazionari. Esiste un male, un male assoluto, chiamato "overtraining". Questo è il male principale (dopo la spazzatura degli input) che rende completamente inutilizzabile qualsiasi modello. Un buon modello dovrebbe sempre essere sub-ottimale, un po' più grossolano della realtà. Credo che sia l'optimum globale a contribuire in modo particolare all'overtraining del modello.


L'overtraining non è una conseguenza dell'uso improprio dell'ottimizzazione, ma una conseguenza della scelta sbagliata del criterio di valutazione del modello. l'errore è stato commesso PRIMA dell'ottimizzazione. ed è abbastanza possibile che anche al primo elemento della catena - il modello faccia schifo.
Dire che il modello dovrebbe essere poco addestrato è sbagliato come dire che un geniere o un chirurgo sono poco addestrati. si dovrebbe incolpare il geniere o il chirurgo o i loro insegnanti, non la possibilità stessa di imparare (migliorare, ottimizzare).
Anche l'accusa di non stazionarietà è sbagliata, e comporta anche l'ottimizzazione. significa che il ricercatore non dispone di un buon modello per una serie non stazionaria.
 
Mi scuso se ho offeso qualcuno immergendo il lettore nella dura realtà.
 

Sembra che vengano utilizzati concetti con contesti diversi.

Ad esempio, "plateau" è piuttosto un'ampia gamma di impostazioni del modo di ottenere fattori esterni che influenzano la logica del modello. Ad esempio, un'ampia gamma di efficienza del mashka sulla base del quale viene realizzato il predittore.

L'ottimizzazione con gli algoritmi MO, qui discussa, riguarda la costruzione della logica decisionale, mentre l'ottimizzazione nel tester di strategia riguarda solitamente la messa a punto dei dati di input, mentre la logica decisionale è già prescritta e al massimo presenta una variabilità.

I due tipi di ottimizzazione sono diversi: uno modifica lo spazio e l'altro le relazioni al suo interno.

A questo punto mi sono chiesto cosa mettere a punto per primo: segni/predittori o cercare un modello e poi cercare le impostazioni ottimali nell'ottimizzatore terminale. Tuttavia, è estremamente difficile cercare le impostazioni se ci sono molti dati di input.

È possibile cambiare spazio e logica contemporaneamente durante l'addestramento, forse dovremmo pensare a come farlo?

SanSanych Fomenko, dobbiamo aspettarci un campionamento?

 
Andrey Dik #:

L'overtraining non è una conseguenza dell'uso improprio dell'ottimizzazione, ma una conseguenza della scelta sbagliata del criterio di valutazione del modello. l'errore è stato commesso PRIMA dell'ottimizzazione. ed è abbastanza possibile che sul primo elemento della catena - il modello faccia schifo.
dire che il modello dovrebbe essere un po' meno addestrato è sbagliato come dire che un geniere o un chirurgo sono poco addestrati. si dovrebbe incolpare il geniere o il chirurgo o i loro insegnanti, non la possibilità stessa di imparare (migliorare, ottimizzare).
Anche l'accusa di non stazionarietà è sbagliata, e comporta anche l'ottimizzazione. significa che il ricercatore non dispone di un buon modello per una serie non stazionaria.

Capisco. Lei ha una conoscenza superficiale dei modelli di apprendimento automatico.

Il primo elemento della catena è la preelaborazione, che richiede dal 50% al 70% del lavoro. È qui che si determina il successo futuro.

Il secondo elemento della catena è l'addestramento del modello sul set di addestramento.

Il terzo elemento della catena è l'esecuzione del modello addestrato sul set di test. Se le prestazioni del modello su questi set differiscono di almeno un terzo, il modello viene riqualificato. Succede ogni tanto, se non più spesso. Un modello sovrallenato è un modello troppo preciso. Scusate, le basi.