L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 386

 

OK, quindi quello 0,8% è ottenuto onestamente. Apparentemente c'è un algoritmo incorporato nel modello per proteggere dal sovrallenamento.


Maxim Dmitrievsky:

Beh, prima di tutto c'è un insieme molto grande, in secondo luogo la natura delle caratteristiche non è affatto nota e i modelli lineari come vettori e Forest non sono ovviamente adatti qui, abbiamo bisogno di fare una non-griglia complessa, forse questa è la ragione.


I modelli di classificazione non vanno bene, sì. La regressione è necessaria. Perché il risultato non è valutato dalla precisione del modello, ma dalla funzione Logloss, che di solito dà una stima più alta ai risultati della regressione

MultiLogLoss <- function(act, pred) {
  eps <- 1 e-15
  pred <- pmin(pmax(pred, eps), 1 - eps)
  sum(act * log(pred) + (1 - act) * log(1 - pred)) * -1 / length(act)
}

atto (effettivo) - risultato atteso, vettore
pred (predetto) - risultato predetto, vettore

Più basso è il punteggio di questa funzione, meglio è. Se il risultato della funzione è maggiore o uguale a 0,6931472, il modello è cattivo e questo risultato suggerisce un'ipotesi casuale.

E a giudicare dai risultati del 54° turno, il vincitore ha ottenuto 0,690467 quando stima sui nuovi dati nascosti per i partecipanti, questo è il risultato a cui dovremmo tendere.

 
Ildottor Trader:

OK, quindi quello 0,8% è ottenuto onestamente. Apparentemente c'è un algoritmo anti-overfitting incorporato nel modello.



I modelli di classificazione non vanno bene, sì. La regressione è necessaria. Perché il risultato non è valutato dalla precisione del modello, ma dalla funzione Logloss, che di solito dà ai risultati della regressione un punteggio più alto

atto (effettivo) - risultato atteso, vettore
pred (predetto) - risultato predetto, vettore

Più basso è il punteggio di questa funzione, meglio è. Se il risultato della funzione è maggiore o uguale a 0,6931472, il modello è cattivo e questo risultato suggerisce un'ipotesi casuale.

A giudicare dai risultati del 54° turno, il vincitore del concorso ha ottenuto 0,690467 quando stima sui nuovi dati nascosti dai partecipanti, questo è il risultato a cui dovremmo tendere.


La regressione NS produce questo sul campione di allenamento, è anche un campione di prova, non so come interpretarlo correttamente, ma anche a me sembra brutto) Cioè, la rete neurale semplice standard non dà alcun vantaggio nella regressione rispetto alla classificazione, e nemmeno rispetto ad altri metodi di classificazione. E ci sono ingressi e uscite normalizzate, la regressione non ha senso per me in questo caso...


 

Selezionare la letteratura in un campo competitivo


5087 documenti corrispondono alla ricerca di GARCH, GJR-GARCH, EGARCH, nei titoli e nelle parole chiave.


I modelli GARCH dovrebbero essere intelligenti, tutto è modellato in modo trasparente:

1. La serie originale viene convertita in incrementi come log(Xi/ Xi-1).

2. La media è modellata con il modello ARIMA

3. le sfumature nella dispersione nel senso di asimmetria e curtosi (code spesse), ecc. sono modellate.

4. La distribuzione stessa è modellata. Di solito si prende una distribuzione t asimmetrica o una distribuzione GED asimmetrica.


Quando si considera il trading nelle borse, si introducono modelli con modalità di commutazione, che tengono conto dei cambiamenti dei parametri del modello, o degli spread.


Negli articoli c'è spesso del codice pronto in R.

 
SanSanych Fomenko:

Selezionare la letteratura in un campo competitivo


5087 documenti corrispondono alla ricerca di GARCH, GJR-GARCH, EGARCH, nei titoli e nelle parole chiave.


I modelli GARCH dovrebbero essere intelligenti, tutto è modellato in modo trasparente:

1. La serie originale viene convertita in incrementi come log(Xi/ Xi-1).

2. La media è modellata con il modello ARIMA

3. le sfumature nella dispersione nel senso di asimmetria e curtosi (code spesse), ecc. sono modellate.

4. La distribuzione stessa è modellata. Di solito si prende una distribuzione t asimmetrica o una distribuzione GED asimmetrica.


Quando si considera il trading nelle borse, si introducono modelli con modalità di commutazione, che tengono conto dei cambiamenti dei parametri del modello, o degli spread.


Negli articoli c'è spesso del codice pronto in R.


E il fatto che gli incrementi non indicano in alcun modo le tendenze? Il mio modello utilizza anche i gradienti per la precisione a breve termine, ma guardo anche i rapporti di tendenza in un modo intelligente

Ah, beh, puoi guardare gli incrementi su diversi campioni di tempo. Avete provato ad addestrare il nostro return-self da diversi TF?

 
Maxim Dmitrievsky:



Che dire del fatto che gli incrementi non indicano in alcun modo le tendenze?

Sì, lo fanno.

O il modello predice l'incremento o la direzione - è a questo che servono i modelli di classificazione.

Non sono a conoscenza di alcun modello di classificazione che riconosca i movimenti sulle notizie. E per GARCH questo è il punto del modello - per elaborare il movimento avvenuto. Code grasse - questo è il movimento sulle notizie quando le tendenze si rompono e si verificano brusche inversioni.


Bene, potete osservare l'aumento su diversi timeframe.

Ci sono interessanti modelli GARCH per diversi timeframe. Il significato è il seguente.

Supponiamo di prevedere l'incremento su H1. Il modello richiede dati di input che caratterizzano la distribuzione. Come dati di input (di solito la volatilità) non prendiamo l'ora precedente ma i minuti dell'ora corrente.

 
Ildottor Trader:

numerai ha cambiato le regole un paio di volte quest'anno.

Una volta era semplice e buono - addestrare un modello su una tabella di treno, controllare l'errore sulla tabella di test, inviare le previsioni, loro le estrapolano alla loro tabella di test nascosta, contare l'errore su di essa. Vince chi ha meno errori sulla tabella nascosta. Era molto buono e corretto che l'errore sul dataset di prova coincidesse davvero con quello sul loro dataset nascosto, in modo da poter controllare il proprio modello.

Poi hanno cambiato qualcosa, e l'errore sul set di dati di prova ha cessato di essere correlato all'errore sul loro set di dati di controllo nascosto. Tutti i leader dall'alto sono scomparsi, solo le persone casuali che sono state abbastanza fortunate da far entrare il loro modello nel loro tavolo di controllo nascosto vincono. Imho il fallimento da parte di numerai, della spazzatura casuale e non un concorso.

Poi hanno visto che tutte le persone adeguate si sono allontanate dal loro concorso casuale, hanno capito il loro errore e hanno cambiato qualcosa. Ora le previsioni sono valutate secondo diversi criteri. Quello che mi fa incazzare di più è il criterio di "unicità", se qualcuno ha inviato risultati simili prima, allora il tuo sarà rifiutato come plagio. Cioè, se diverse persone usano lo stesso quadro per creare un modello, allora quello che si è svegliato prima e ha inviato una previsione otterrà i soldi.
L'accuratezza del modello è ora completamente inutile quando si calcolano i profitti. Si può ottenere l'errore 0, essere al 1° posto nella top e non guadagnare nulla, perché la top mostra il risultato sui dati di prova che si danno da scaricare, la top non mostra più il risultato della loro tabella di controllo nascosto.
L'attuale iterazione del loro concorso è imho senza senso, nessuna trasparenza, tutto è incasinato. Aspettando che cambino di nuovo qualcosa nel concorso, si spera che sia di nuovo adeguato.

Quanti soldi reali hai fatto con questo sito prima che cambiassero le regole?
 

 
Ildottor Trader:

Più che altro una specie di servizio di sconti )) Non è come pagare uno scienziato dei dati

 

Ogni settimana i vincitori dei primi 100 sono pagati un totale di 3.600 dollari, ma i premi diminuiscono di volume molto bruscamente. Il primo posto ottiene $1000, poi $435, poi $257, ecc. Anche se si arriva al decimo posto (di solito ci sono più di 500 partecipanti), si ottiene un misero 63 dollari. Sei vittima di bullismo.

Vedo questo concorso più come un modo per confrontare il mio modello con i leader e imparare diversi approcci al datamining che come un modo per fare soldi.

 

Volevo sapere come il punteggio della classifica (val logloss, verticale) è legato al punteggio ottenuto dal modello sui nuovi dati (live logloss, orizzontale). (55° turno)

Ben fatto solo quelli nel rettangolo in basso a sinistra. Gli altri, anche se sono arrivati in classifica, hanno perso i nuovi dati. I migliori logloss nella classifica (i due punti in basso a destra) erano i peggiori sui nuovi dati.

Quello con il punto più a sinistra sul grafico vince, e sembra un outlier casuale piuttosto che un apprendimento automatico mirato.

È interessante notare che con un logloss di 0,690 - 0,691 sui dati di convalida quasi tutti hanno mostrato buoni risultati anche sui nuovi dati, non ho idea di cosa questo abbia a che fare.