L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3215

 
fxsaber #:

Martin.

E se c'è una forte tendenza all'assenza di rinculo, il Martin funzionerà? E perché non funzionerà?

fxsaber #:

È una filosofia.

1)se un algoritmo fa soldi sul mercato per molto tempo, è una regolarità, giusto?

2)e se si sovrappone a questo algoritmo un altro algoritmo, che osserverà il primo algoritmo e raccoglierà statistiche su di esso e darà segnali di trading e guadagnerà.

Allora, secondo voi, si tratta già di una filosofia, non di un modello.

È esattamente quello che ho descritto con l'esempio di un trader...

 
mytarmailS #:

Allora stai dicendo che è una filosofia, non un modello.

Io vedo una reciproca perdita di tempo. Sono sicuro che se stessimo parlando di persona l'uno di fronte all'altro, la probabilità di comprensione reciproca sarebbe prossima a uno.


Sovrapporre qualcosa ai risultati della TC è una pratica normale. La più comune è quella dei filtri. Meno spesso - MM (per esempio, un filtro sulla curva di equilibrio: se si devia più fortemente, si modifica più fortemente MM). Ancora più raramente, la ricerca di regolarità nei risultati del trading.

 
fxsaber #:

Vedo una reciproca perdita di tempo. Sono sicuro che se stessimo parlando di persona l'uno di fronte all'altro, la probabilità di comprensione reciproca sarebbe prossima a uno.

La proposta di una conferenza negli Emirati Arabi Uniti è ancora valida.)

 
fxsaber #:

Vedo una reciproca perdita di tempo. Sono sicuro che se stessimo parlando di persona l'uno di fronte all'altro, la probabilità di comprensione reciproca sarebbe prossima a uno.

Sono d'accordo

 
Maxim Dmitrievsky #:

si scrive male. OOS - test, validazione - secondo sottocampione (insieme alla traina) per la valutazione del modello (validazione).

Quello di validazione può essere uguale a quello di test o separato.

Questa separazione è nata perché gli OI spesso usano il secondo sottocampione per interrompere l'addestramento in anticipo. In un certo senso, si potrebbe dire che si adattano ad esso.

Per questo motivo utilizzano tre sottocampioni, uno dei quali non partecipa affatto all'addestramento.

Convalida - conferma della validità. Sì/No. La valutazione è una cosa piuttosto complicata da fare per un modello di bontà di adattamento))) valutazioni di bontà di adattamento, quindi))

La conversazione riguarda i termini e i loro significati, credo)).

 
Valeriy Yastremskiy #:

Convalida - conferma della validità. Sì/No. La valutazione è un po' complicata per un modello adatto allo scopo.))))) valutazioni per l'adattamento allo scopo).

La conversazione riguarda i termini e i loro significati, credo).

La convalida precede la valutazione, o include la valutazione, come preferite. Non è a questo che si vuole arrivare.

E quello a cui avresti dovuto arrivare è che i MOS sono sottocampioni confusi :)) Ma producono molteplici teorie di mercato utopiche su scala industriale.

Poiché il nostro obiettivo è trovare la rete con le migliori prestazioni su nuovi dati, l'approccio più semplice per confrontare reti diverse è stimare la funzione di errore su dati indipendenti da quelli utilizzati per l'addestramento. Le diverse reti vengono addestrate minimizzando la corrispondente funzione di errore definita rispetto al set di dati di addestramento. Le prestazioni delle reti vengono quindi confrontate valutando la funzione di errore su un set di validazione indipendente e viene selezionata la rete con l'errore minore rispetto al set di validazione. Questo approccio è chiamato metodo holdout. Poiché questa procedura da sola può portare a un sovraccarico dell'insieme di convalida, le prestazioni della rete selezionata devono essere convalidate misurando le sue prestazioni su un terzo insieme di dati indipendente, detto insieme di test.

Un'applicazione di questo processo è l'arresto anticipato, in cui i modelli candidati sono iterazioni successive della stessa rete e l'addestramento viene interrotto quando l'errore sull'insieme di validazione cresce e viene selezionato il modello precedente (quello con l'errore minimo).

https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_sets
 
Maxim Dmitrievsky #: Un'applicazione di questo processo è l'arresto anticipato, in cui i modelli candidati sono iterazioni successive della stessa rete e l'addestramento si interrompe quando l'errore sul set di convalida cresce e viene selezionato il modello precedente (quello con l'errore minimo).

Sui dati con modelli, questo funzionerà.
Se non ce ne sono quasi, ci sarà un adattamento al grafico su cui è stato fatto l'arresto anticipato + una buona traccia. È sufficiente aumentare la traccia di un'ulteriore sezione per ottenere più o meno lo stesso modello.

 
Forester #:

Sui dati con modelli funzionerà.
Se non ce ne sono quasi, ci sarà un adattamento al grafico su cui è stato effettuato l'arresto anticipato + una buona traccia. È sufficiente aumentare la traccia di un'ulteriore sezione per ottenere più o meno lo stesso modello.

Questa è una domanda diversa.
 
Maxim Dmitrievsky #:
È una domanda diversa.

È quello che stavo sollevando.

 
fxsaber #:

Ecco cosa stava sollevando.

Miscelazione, come minimo, bootstrap. Se i campioni provengono da distribuzioni diverse, di quale confronto si può parlare.
Il MO non cerca modelli, ma classifica i campioni con modelli già noti.
Se la ricerca di modelli attraverso il MO è una tecnica separata da quella che faccio io, allora la ricerca di modelli attraverso il MO è solo un allenamento su sottocampioni.