L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 632

 
Maxim Dmitrievsky:

Mi sono interrogato sul re-information lerning, così ho trovato un articolo interessante e sto cercando di comprarlo e forse aggiungerlo al bot.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Solo che lui ha una specie di droga alla fine che impara solo a comprare per qualche motivo

Ho la stessa situazione - il classificatore NS spesso si impantana in una classe. Le classi devono essere allineate. Ma ho il 95% di una classe e il 5% dell'altra. *20 volume di righe non è auspicabile.
Questo è circa lo stesso di quell'articolo e lo capisco.

Penso che passerò alla regressione/previsione per sperimentare e vedere cosa succederà...

 
Maxim Dmitrievsky:

Mi sono interrogato sul re-information lerning, così ho trovato un articolo interessante e sto cercando di comprarlo e forse aggiungerlo al bot.

https://hackernoon.com/the-self-learning-quant-d3329fcc9915

Sto cercando di comprare un bot ma è un po' tonto, impara a comprare solo alla fine per qualche motivo.

Beh, lui stesso ha spiegato lì che va bene, perché c'è una chiara tendenza rialzista. Un commentatore lì dice anche che il suo agente preferisce tenere una posizione lunga. Sì e l'autore stesso parla della piccola lunghezza della storia. Inoltre non ha usato la gamma nel codice per regolare il valore del premio nel tempo.

E in generale l'articolo è utile perché dà riferimenti a due buone librerie nel codice.
Uno per caricare diversi dati di mercato, l'altro per applicare sui dati diversi indicatori. L'ho preso per me.


https://www.quandl.com/tools/python
https://mrjbq7.github.io/ta-lib/

 
elibrario:

Ho la stessa situazione - il classificatore NS va spesso nella stessa classe. Le classi devono essere allineate. Ma ho il 95% di una classe e il 5% dell'altra. *20 volume di righe non è auspicabile.
È più o meno come in quell'articolo e l'ho capito.

Sto pensando di passare alla regressione/previsione per sperimentare e vedere cosa succede...

Anch'io affronto questa situazione.
La selezione delle caratteristiche, la regolarizzazione e molti abbandoni, rendono il modello più stabile. Tutto senza allineamento, puro flusso di serie temporali.

Ho giocherellato molto con le classi per qualche motivo. Nel mio caso (ml-assistant), la persistenza del segnale è un singolo numero [-1,1]. Cioè, in teoria si può costruire immediatamente la regressione (che viene anche abbastanza bene), ma la previsione è meno "leggibile" lì.
Per classificare, abbiamo bisogno di dividerli in classi, e l'idea di softmax è di equiparare la somma delle classi a 1.0. Ma alla fine si è rivelato più corretto solo dividerli relativi a zero, il modello stesso normalizza la somma delle classi a 1, indipendentemente dal targeting.

Ma quando aggiungo una terza classe di passaggio, per qualche motivo è un costante sovrallenamento. Forse non lo sto preparando correttamente. =)

 
elibrario:

Ho la stessa situazione - il classificatore NS va spesso in una classe. Le classi devono essere parificate. Ma ho il 95% di una classe e il 5% dell'altra. *20 volume di righe non è auspicabile.
Questo è più o meno lo stesso che in quell'articolo e ho capito.

Sto pensando di passare alla regressione/previsione - per sperimentare e vedere cosa succede...

Su 10-12k campioni: ~800 sono di classe 1, il resto sono di classe 0. Questa è la realtà).

Ho letto in un libro intelligente che il rapporto quantitativo delle classi in una sequenza di allenamento dovrebbe essere vicino alla realtà.

 
Yuriy Asaulenko:

Su un campione di 10-12.000: ~800 sono di classe 1, il resto sono di classe 0. Questa è la realtà).

Ho letto in un libro intelligente che il rapporto quantitativo delle classi in una sequenza di allenamento dovrebbe essere vicino alla realtà.

e altri libri intelligenti dicono che le classi devono essere bilanciate/combinate.

cioè in forex, non abbiamo idea della popolazione, ed è logico che il numero di elementi nelle classi debba essere approssimativamente uguale.

 
Ciao a tutti!!! Qualcuno può spiegare chiaramente il significato di entropia negativa? In termini semplici......
 

Solo un video interessante sulla casualità da un uomo intelligente


 
Mihail Marchukajtes:
Ciao a tutti!!! Qualcuno può spiegare il significato di entropia negativa? In termini semplici......

Ecco cosa scrivono le persone intelligenti:

"Non-entropia θ corrisponde a qualche valore "strutturale". che è determinato dalla quantità caratteristica della memoria passata. Quando θ è grande, emergono strutture gerarchiche complesse in una vasta gamma, quando θ è piccolo, emergono strutture in una piccola gamma, e quando θ → 0, cioè nessuna informazione sul passato, c'è una transizione marginale ai processi markoviani".

Infatti, questo è il valore che caratterizza la non-markovianità del processo. Dato che lavoro con le distribuzioni di probabilità, ho scoperto che questa cosa è responsabile del tipo di "code" delle distribuzioni.
 
Mihail Marchukajtes:
Ciao a tutti!!! Qualcuno può spiegare il significato di entropia negativa? In termini semplici......

L'entropia è una misura del disordine o del caos, la non-entropia (entropia negativa) è una misura della decenza e del grado di auto-organizzazione. Uno zucchero non disciolto in un sistema di becher ha un'entropia minima, una volta completamente disciolto - il sistema ha un'entropia massima. Per riportare il sistema al suo stato iniziale, l'entropia deve essere importata dall'esterno - per creare una condizione di cristallizzazione. Nel caso di NS, il sistema deve costantemente assorbire nuove informazioni dall'esterno e sbarazzarsi di quelle inutili, altrimenti un aumento dell'entropia lo porterà alla morte.

 
Yousufkhodja Sultonov:

L'entropia è una misura del disordine o del caos, la non-entropia (entropia negativa) è una misura dell'ordine e del grado di auto-organizzazione. Uno zucchero non disciolto in un sistema di becher ha un'entropia minima, dopo la dissoluzione completa, il sistema ha un'entropia massima. Per riportare il sistema al suo stato iniziale, l'entropia deve essere importata dall'esterno - per creare una condizione di cristallizzazione. Nel caso di NS, il sistema deve costantemente assorbire nuove informazioni dall'esterno e sbarazzarsi di quelle inutili, altrimenti un aumento dell'entropia lo porterà alla morte.

Commento eccellente. Esattamente così.