L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3211

 
mytarmailS #:

Per evitare il peeking, Forester ha ragione nell'affermare che si dovrebbero calcolare i predittori senza sbirciare a ogni iterazione del ciclo.

Questa è la soluzione.

Con l'esempio di ZZ, era ovvio.

Ma spesso ottengo un errore di classificazione inferiore al 10% senza ZZ. Si è rivelata una schifezza. L'ho buttato via.

 
СанСаныч Фоменко #:

E non si può correre sul file INE e vivere felici, come fa Maxim con immagini molto belle.

Sognerai molte cose nei tuoi sogni
 
Maxim Dmitrievsky #:
Non mi interessa risolvere i problemi mentali degli altri.

Lei si occupa di belle immagini, anche nel mercato. Quindi è questo il tuo problema principale.

 
СанСаныч Фоменко #:

Siete responsabili delle belle immagini, anche nel mercato. Quindi è questo il tuo problema principale.

Io non ho alcun problema, compresi quelli mentali. Se vuoi provare a crearli, provaci.
 

La selezione delle caratteristiche avviene da un mucchio di informazioni eterogenee, spesso irrilevanti per l'oggetto dello studio.

I BP derivati sono tutti correlati a questo BP, si può solo scegliere meglio/peggio, spesso non ha alcun senso.

Non sto parlando di sbirciare, questi sono problemi infantili. Ovviamente, questi giochetti non hanno portato a nulla nel corso degli anni. Ma loro si ostinano a ripeterlo.

E gli errori si verificano anche all'interno del campione, perché non è possibile contrassegnare correttamente le operazioni.
Sui nuovi dati ci possono essere delle varianti, come il bias dovuto alle tendenze, o la riqualificazione su fluttuazioni imprevedibili, la confusione. Curata attraverso la correzione dell'errore del modello con il metodo cv.

In quale punto dei vostri articoli si parla di metodi di correzione degli errori semplici ed efficaci?

Mi permetto di indovinare: nella rubrica P non c'è una freccia per questa sacra conoscenza, e noi non siamo abituati a cercare su Google e a pensare :).
 
Maxim Dmitrievsky #:

La selezione delle caratteristiche avviene da un mucchio di informazioni eterogenee, spesso irrilevanti per l'oggetto dello studio.

I BP derivati sono tutti correlati a questo BP, si può solo scegliere meglio/peggio, spesso senza alcun senso.

Non sto parlando di sbirciare, questi sono problemi infantili. Ovviamente, questi giochetti non hanno portato a nulla nel corso degli anni. Ma loro si ostinano a ripeterlo.

E gli errori si verificano anche nel campione, perché non è possibile contrassegnare correttamente le operazioni.
Sui nuovi dati ci possono essere delle varianti, come il bias dovuto alle tendenze, o la riqualificazione su fluttuazioni imprevedibili, la confusione. Curato correggendo gli errori del modello con il metodo cv.

In quale punto dei vostri articoli si parla di metodi di correzione degli errori semplici ed efficaci?

Gli errori del CV non si curano con il loro significato, poiché si tratta di una ricerca di parametri ottimali con minimizzazione dell'errore. Se un insegnante e i suoi predittori sono falsamente correlati, la CV troverà necessariamente qualcosa di migliore in questa spazzatura, ma non risolverà il problema della spazzatura.

Il problema della spazzatura si risolve con la "capacità predittiva", cioè la capacità dei valori dei predittori di prevedere una classe o l'altra. Allora è chiaro che l'errore di classificazione è determinato dal fatto che gli stessi valori predittivi predicono una classe in alcuni momenti e un'altra classe in altri momenti. Rattle ha anche delle immagini su questo argomento.

 
СанСаныч Фоменко #:

Il CV non cura gli errori nella sua accezione di ricerca di parametri ottimali con minimizzazione degli errori. Se un insegnante e i suoi predittori sono falsamente correlati, il CV troverà sicuramente qualcosa di migliore in questa spazzatura, ma non risolverà il problema della spazzatura.

Il problema della spazzatura si risolve con la "capacità predittiva", cioè la capacità dei valori dei predittori di prevedere una classe o l'altra. È quindi chiaro che l'errore di classificazione è determinato dal fatto che gli stessi valori predittivi predicono una classe in alcuni momenti e un'altra classe in altri momenti. Rattle ha anche delle immagini su questo argomento.

Quindi? Non cercate le correlazioni, cercate la causalità attraverso la randomizzazione e la cv. O devo insegnartelo io terver?

Quasi tutti i modelli su un campione fisso sono viziati se non si effettua la correzione degli errori. Perché non sai come si fa un grafico. Se lo sapeste fare, ma non lo sapete fare. La parte più piccola sarà sempre etichettata correttamente, indipendentemente da ciò che pensi.
 
СанСаныч Фоменко #:

Il problema di cui sopra è che esiste un modello che ha risultati eccellenti su un file di allenamento e un file OOS. Mi risulta che il file di addestramento possa essere ottenuto anche con un campionamento casuale per campione, mentre l'OOS è il residuo del file di addestramento.

Ma quando si esegue il modello su un file esterno, il risultato è catastroficamente negativo.

Credo di aver parlato di OOS alcune volte di recente. Ma il buon OOS era, secondo la vostra terminologia, un "file separato".

SanSanych Fomenko #:

E come rilevare la presenza di un file in avanti?

Se l'apprendimento è multi-pass (la fase successiva utilizza i calcoli di quella precedente), la probabilità di "guardare avanti" è alta. Non esiste una ricetta generale, ma in un caso ho fatto come segue.


Per accelerare il calcolo, è stato necessario eliminare i tick non necessari. Ad esempio, se si riduce il numero di tick di 10 volte, i calcoli saranno accelerati della stessa quantità. Si tratta di un'azione molto richiesta.

Nel mio caso, sapevo quali tick mi servivano e quali non mi servivano affatto. In ogni caso, ho costruito un simbolo personalizzato e ho iniziato i backtest su quello personalizzato e su quello originale.

In questo caso era importante attivare la nerditudine e ottenere una corrispondenza >99%. Si è scoperto che inizialmente stavo buttando via troppo e ho ottenuto un risultato diverso (ovviamente migliore di quello originale).


Alla fine ho iniziato a buttare via meno dell'originale e tutto ha iniziato a combaciare. In realtà uso un metodo a due passaggi quando mi alleno.


Quindi, probabilmente, per rilevare il peeking dopo il passaggio precedente si può usare il controllo sopra descritto anche prima dei calcoli seri. E c'è anche un metodo del nonno per rilevare la presenza di occhiate in avanti: "troppo bello per essere vero". I principianti si rallegrano per i bei risultati, mentre i più maturi si arrabbiano perché si rendono conto che dovranno cercare il proprio errore per molto tempo.

 
fxsaber #:

I nuovi arrivati sono contenti dei risultati, quelli più maturi sono arrabbiati, perché si rendono conto che dovranno cercare i propri errori per molto tempo.

E i professionisti li guardano entrambi con pietà e condiscendenza e si dicono tranquillamente: quando penserete di cambiare il concetto, non la scenografia?

 
mytarmailS #:

E professionisti...

Non ne ho incontrato nessuno.