L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 632
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Mi sono interrogato sul re-information lerning, così ho trovato un articolo interessante e sto cercando di comprarlo e forse aggiungerlo al bot.
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
Solo che lui ha una specie di droga alla fine che impara solo a comprare per qualche motivo
Ho la stessa situazione - il classificatore NS spesso si impantana in una classe. Le classi devono essere allineate. Ma ho il 95% di una classe e il 5% dell'altra. *20 volume di righe non è auspicabile.
Questo è circa lo stesso di quell'articolo e lo capisco.
Penso che passerò alla regressione/previsione per sperimentare e vedere cosa succederà...
Mi sono interrogato sul re-information lerning, così ho trovato un articolo interessante e sto cercando di comprarlo e forse aggiungerlo al bot.
https://hackernoon.com/the-self-learning-quant-d3329fcc9915
Sto cercando di comprare un bot ma è un po' tonto, impara a comprare solo alla fine per qualche motivo.
E in generale l'articolo è utile perché dà riferimenti a due buone librerie nel codice.
Uno per caricare diversi dati di mercato, l'altro per applicare sui dati diversi indicatori. L'ho preso per me.
https://www.quandl.com/tools/python
https://mrjbq7.github.io/ta-lib/
Ho la stessa situazione - il classificatore NS va spesso nella stessa classe. Le classi devono essere allineate. Ma ho il 95% di una classe e il 5% dell'altra. *20 volume di righe non è auspicabile.
È più o meno come in quell'articolo e l'ho capito.
Sto pensando di passare alla regressione/previsione per sperimentare e vedere cosa succede...
Anch'io affronto questa situazione.
La selezione delle caratteristiche, la regolarizzazione e molti abbandoni, rendono il modello più stabile. Tutto senza allineamento, puro flusso di serie temporali.
Ho giocherellato molto con le classi per qualche motivo. Nel mio caso (ml-assistant), la persistenza del segnale è un singolo numero [-1,1]. Cioè, in teoria si può costruire immediatamente la regressione (che viene anche abbastanza bene), ma la previsione è meno "leggibile" lì.
Per classificare, abbiamo bisogno di dividerli in classi, e l'idea di softmax è di equiparare la somma delle classi a 1.0. Ma alla fine si è rivelato più corretto solo dividerli relativi a zero, il modello stesso normalizza la somma delle classi a 1, indipendentemente dal targeting.
Ma quando aggiungo una terza classe di passaggio, per qualche motivo è un costante sovrallenamento. Forse non lo sto preparando correttamente. =)
Ho la stessa situazione - il classificatore NS va spesso in una classe. Le classi devono essere parificate. Ma ho il 95% di una classe e il 5% dell'altra. *20 volume di righe non è auspicabile.
Questo è più o meno lo stesso che in quell'articolo e ho capito.
Sto pensando di passare alla regressione/previsione - per sperimentare e vedere cosa succede...
Su 10-12k campioni: ~800 sono di classe 1, il resto sono di classe 0. Questa è la realtà).
Ho letto in un libro intelligente che il rapporto quantitativo delle classi in una sequenza di allenamento dovrebbe essere vicino alla realtà.
Su un campione di 10-12.000: ~800 sono di classe 1, il resto sono di classe 0. Questa è la realtà).
Ho letto in un libro intelligente che il rapporto quantitativo delle classi in una sequenza di allenamento dovrebbe essere vicino alla realtà.
e altri libri intelligenti dicono che le classi devono essere bilanciate/combinate.
cioè in forex, non abbiamo idea della popolazione, ed è logico che il numero di elementi nelle classi debba essere approssimativamente uguale.
Solo un video interessante sulla casualità da un uomo intelligente
Ciao a tutti!!! Qualcuno può spiegare il significato di entropia negativa? In termini semplici......
Ecco cosa scrivono le persone intelligenti:
"Non-entropia θ corrisponde a qualche valore "strutturale". che è determinato dalla quantità caratteristica della memoria passata. Quando θ è grande, emergono strutture gerarchiche complesse in una vasta gamma, quando θ è piccolo, emergono strutture in una piccola gamma, e quando θ → 0, cioè nessuna informazione sul passato, c'è una transizione marginale ai processi markoviani".
Infatti, questo è il valore che caratterizza la non-markovianità del processo. Dato che lavoro con le distribuzioni di probabilità, ho scoperto che questa cosa è responsabile del tipo di "code" delle distribuzioni.Ciao a tutti!!! Qualcuno può spiegare il significato di entropia negativa? In termini semplici......
L'entropia è una misura del disordine o del caos, la non-entropia (entropia negativa) è una misura della decenza e del grado di auto-organizzazione. Uno zucchero non disciolto in un sistema di becher ha un'entropia minima, una volta completamente disciolto - il sistema ha un'entropia massima. Per riportare il sistema al suo stato iniziale, l'entropia deve essere importata dall'esterno - per creare una condizione di cristallizzazione. Nel caso di NS, il sistema deve costantemente assorbire nuove informazioni dall'esterno e sbarazzarsi di quelle inutili, altrimenti un aumento dell'entropia lo porterà alla morte.
L'entropia è una misura del disordine o del caos, la non-entropia (entropia negativa) è una misura dell'ordine e del grado di auto-organizzazione. Uno zucchero non disciolto in un sistema di becher ha un'entropia minima, dopo la dissoluzione completa, il sistema ha un'entropia massima. Per riportare il sistema al suo stato iniziale, l'entropia deve essere importata dall'esterno - per creare una condizione di cristallizzazione. Nel caso di NS, il sistema deve costantemente assorbire nuove informazioni dall'esterno e sbarazzarsi di quelle inutili, altrimenti un aumento dell'entropia lo porterà alla morte.
Commento eccellente. Esattamente così.