L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1978

 
Maxim Dmitrievsky:

Funziona meglio, ma è molto più difficile se anche la RL è avvitata.

In generale, le reti di retropropagazione convenzionali come mlp non sono adatte alle serie temporali, per niente. Almeno hai bisogno di RNN

Vanno bene per le stazioni) La logica semplice per il semplice funziona solo. Per i ranghi reali, è necessario un algoritmo complesso).

 
Valeriy Yastremskiy:

Per le stazionarie sono buone) La logica semplice per il semplice funziona solo. Per le serie reali è necessario un cervello complesso).

Qualsiasi serie non stazionaria può essere rappresentata come una somma di serie stazionarie di lunghezza arbitraria. Ma la lunghezza arbitraria è un grosso problema nel problema delle previsioni.

 
Valeriy Yastremskiy:

Qualsiasi serie non stazionaria può essere rappresentata come una somma di serie stazionarie di lunghezza arbitraria. La lunghezza arbitraria è un grande problema nel problema della predizione.

È un grande equivoco.

 
Valeriy Yastremskiy:

Per le stazionarie sono buone) La logica semplice per il semplice funziona solo. Per le serie del mondo reale, hai bisogno di un cervello complesso)

dipende dal rapporto segnale-rumore. Ad un certo punto smettono di funzionare, perché non tengono conto della non oscurità.

Grosso modo, la regolarità scompare sulle serie rumorose (loop evidenti), ma l'unmarking è conservato (se il processo è con memoria). Il normale mlp non lo prende, solo RNN.

Quindi mlp, boosting, forest, ecc. solo per processi markoviani senza memoria.

Esempio con la lingua: ogni lingua ha un certo livello di entropia, cioè l'alternanza di parole nella lingua. Ad un livello alto, il discorso diventa incoerente, ad esempio se ci sono molte parole parassite, o se sei solo Peter Konov. Allora si può prendere solo dal contesto, il che richiede la memoria delle frasi passate (modelli).

Per esempio, tu leggi la mia frase e non sai chi è Peter e in quale contesto l'ho scritta. Non hai memoria degli eventi passati e non puoi metterli in relazione con la formulazione attuale, quindi trai conclusioni sbagliate.

 
Maxim Dmitrievsky:

dipende dal rapporto segnale-rumore. Ad un certo punto, smettono di funzionare, perché non tengono conto della non oscurità.

In parole povere, nei file rumorosi, la regolarità scompare (cicli evidenti), ma la non-markness è conservata (se il processo è con memoria). Il normale mlp non lo prende, solo RNN.

Quindi mlp, boosting, forest, ecc. solo per processi markoviani senza memoria.

Esempio con la lingua: ogni lingua ha un certo livello di entropia, cioè l'alternanza di parole nella lingua. Ad un livello alto, il discorso diventa incoerente, ad esempio se ci sono molte parole parassite, o se sei solo Peter Konov. Allora si può prendere solo dal contesto, il che richiede la memoria delle frasi passate (modelli).

Per esempio, tu leggi la mia frase e non sai chi è Peter e in quale contesto l'ho scritta. Non avete memoria degli eventi passati e non potete metterli in relazione con la formulazione attuale, quindi trarrete conclusioni sbagliate.

Il segnale/rumore è ovviamente determinante. In caso di forte rumore, le regolarità deboli si perdono, semplicemente non si vedono. Ma nel caso delle serie di prezzi, il rumore non viene creato dall'esterno. Il rumore è una regolarità sbiadita o debole, anche se forte. Non cambia però l'essenza. Regolarità che possono essere rilevate e il resto è rumore.

 
Oleg avtomat:

Questo è un grande equivoco.

Certamente non per alcuno nel senso pieno della parola alcuno. Il rumore bianco non si applica qui, ma non lo stiamo nemmeno considerando. Inizialmente una serie è composta da diverse regolarità, e hanno diverse ampiezze e lunghezze, quindi abbiamo una serie con rumore e regolarità in essa.

 
Valeriy Yastremskiy:

Il segnale/rumore è ovviamente il fattore determinante. Se c'è molto rumore, le regolarità deboli si perdono, semplicemente non possono essere viste. Ma nel caso delle serie di prezzi, il rumore non è creato dall'esterno. Il rumore è una regolarità sbiadita o debole, anche se forte. Non cambia però l'essenza. I modelli che possono essere rilevati e il resto è rumore.

Se il rumore è più del segnale, è sempre sovralimentato o sottoalimentato (quando si usa il campionamento di convalida). Perché non ci sono modelli stabili.

e quando c'è molto rumore e pochi modelli, allora cerca di isolare il segnale.

è davvero difficile capire perché una sequenza di modelli rumorosi contiene un segnale ma un modello no. Possiamo semplicemente aumentare il numero di caratteristiche (storia che viene alimentata). Ma no, non funziona così. Rumore su rumore produce rumore. Richiede un'estrazione di contesto più sottile, lì funziona per qualche motivo. Magia, in una parola.

 
Maxim Dmitrievsky:

Ebbene, quando il rumore è maggiore del segnale, si tratta sempre di un overfit o underfit (quando si usa il campionamento di convalida). Perché non ci sono modelli stabili.

ma quando c'è molto rumore e pochi modelli, si cercherà di isolare il segnale

Beh, questo è il punto di tutte le ricerche in tutti gli argomenti probabilistici, per isolare un modello e cogliere il momento in cui non c'è più. E di solito è meno problematico e costoso da isolare).

 
Maxim Dmitrievsky:


gentile gentile educato))))

 
Valeriy Yastremskiy:

gentilmente affettuoso educato))))

Sto facendo un log completo, vi dirà cosa sta facendo.

così possiamo capire cosa migliorare