L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1977

 

Triste peccato, l'aumento del TF peggiora il risultato, il rangy è meglio.

Aggiunto MA e diradamento. Senza MA, il diradamento funziona come un cambiamento di TF e rende la distribuzione normale. RMS = radice del passo di assottigliamento. Se MA è 2 volte più grande del diradamento allora abbiamo un downsampling kosher, la predizione funziona con alta precisione, ma abbiamo bisogno di un tester per calcolare il payoff atteso corretto. Lo zigzag è pronto, ma non so che forma dovrebbe avere: array di indici con minimi e massimi, o un array di indici, o un array di prezzi in una volta sola.

Posso ottenere qualsiasi altro filtro al posto del MA, ma ho solo bisogno di sapere la caratteristica dell'impulso. Nel codice MA è fatto come [1/per]*per, che si espanderà per per=4 in [0.25, 0.25, 0.25, 0.25]

 
Rorschach:

Foresta: 55,89% di risposte corrette, 2,36 di aspettativa

Incrementi cumulativi della foresta: 55,89% di risposte corrette, 2,36 di aspettativa, risultati identici

C'è una differenza però, gli incrementi sono migliori.

Problemi con lo zigzag, non è chiaro come limitare il cambiamento minimo, sempre micro-commutazione.


 

Più che altro un'assurdità, ma chiederò.


NS può prevedere tali serie?


Come la probabilità che appaia il prossimo personaggio. E c'è qualche dipendenza della serie A dalla serie B.

 
Evgeniy Chumakov:

Più che altro un'assurdità, ma chiederò.


NS può prevedere tali serie?


Come la probabilità che appaia il prossimo personaggio. E c'è una correlazione tra la serie A e la serie B?

Questo è il loro compito diretto.

 

Dopo il passaggio a TensorFlow 2.3 è apparso un errore

"WARNING:tensorflow:11 delle ultime 11 chiamate per attivare il ritracciamento di tf.function. Iltracciamento è costoso e il numero eccessivo di tracciamenti potrebbe essere dovuto alla creazione di @tf.function ripetutamente in un ciclo " .

Cioè qualche tf.function sta giurando di essere in un ciclo. Non ho nessuna funzione tf.function, ma nel ciclo polls models prediction=model.predict(data).
La funzione tf.function è descritta qui
Questa è chiaramente un'entità sconosciuta, qualcuno capisce cos'è?

UPD
Comunque, questa è una specie di cosa figa, non posso farne a meno, ho bisogno di indagare. Risolve i problemi di compatibilità di TensorFlow con Python.

 

Credo di aver finito il commerciante di agenti. Ho monitorato la demo per i test alfa. La logica non è banale, quindi potrebbero esserci dei bug. Mettiamolo alla prova.

Ora sono interessato a provare LSTM in diverse varianti e forse trasformatori (ma potrebbe essere difficile capirlo).
 
Maxim Dmitrievsky:

Credo di aver finito il commerciante. Ho monitorato la demo per i test alfa. La logica non è banale, quindi potrebbero esserci dei bug. Mettiamolo alla prova.

Ora sono interessato a provare LSTM in diverse varianti e forse trasformatori (ma potrebbe rompersi il cervello cercando di capirlo)

La logica è più complessa. Da un lato è buono. D'altra parte, gli insetti in aree non familiari. Trasformatore è cosa?

 
Valeriy Yastremskiy:

La logica è più ramificata. Da un lato questa è una buona cosa. Dall'altro, ci sono bug in aree poco conosciute. Trasformatore è cosa?

Un nuovo tipo di rete per lavorare con sequenze temporali, che si dice sia migliore di lstm. Nel riconoscimento del testo, nella traduzione automatica, ecc. vengono utilizzati per evidenziare il contesto delle frasi. Cioè, quando una parola è legata ad altre (precedenti) da qualche contesto.

trasformatori di auto-attenzione. Meccanismo - l'analogo dell'attenzione umana.

 
Maxim Dmitrievsky:

un nuovo tipo di rete a sequenza temporale, che si dice sia migliore dell'lstm. Nel riconoscimento del testo, nella traduzione automatica, ecc. vengono utilizzati per evidenziare il contesto delle frasi. Cioè, quando una parola è legata ad altre (precedenti) da qualche contesto.

trasformatori di auto-attenzione. Meccanismo - l'analogo dell'attenzione umana.

Complicazioni così importanti. In primo luogo, la memoria è lunga e breve, e poi c'è la parvenza di attenzione nel modello. Il mio cervello non può far fronte a tutto in una volta). Ma dovrebbe funzionare meglio.

 
Valeriy Yastremskiy:

Bene tali complicazioni significative. In primo luogo, la memoria è lunga e corta, e poi c'è la parvenza di attenzione nel modello. Il cervello non è sicuramente all'altezza))). Ma dovrebbe funzionare meglio.

Funziona meglio, ma non saprai mai dove sta andando.

In generale, le reti di retropropagazione convenzionali come mlp non sono adatte alle serie temporali, per niente. Come minimo avete bisogno di RNN