L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1965
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Basta correre e scambiare, impara mentre vai
Qual è la logica di trading? È l'apprendimento su base scorrevole in una finestra di 1,5 mesi? Quanto spesso impara o dipende da cosa? In quale lasso di tempo?
Suggerisco di fare dei test su questi dati, c'è sicuramente un modello ed è chiaro a cosa puntare.
ps per rimuovere il .txt dal nome
Rete: 56,58% di risposte corrette, 2,63 di aspettativa
Foresta: 55,89% di risposte corrette, 2,36 di attesa
Incrementi cumulativi della foresta: 55,89% di risposte corrette, 2,36 di aspettativa, risultati identici
Ranghi di 20 5 cifre. Lo spread non è preso in considerazione. In media i risultati sono gli stessi, ma la griglia conta per 2 minuti e la foresta per meno di un secondo.
Sembra che una sessione di magia nera sia in ordine, anche se non ho ancora provato lo zigzag.
Rete: 56,58% di risposte corrette, 2,63 di aspettativa
Foresta: 55,89% di risposte corrette, 2,36 di aspettativa
Classifica 20 a 5 cifre. Lo spread non è preso in considerazione. In media i risultati sono gli stessi, ma la griglia conta per 2 minuti e la foresta per meno di un secondo.
Sembra una sessione di magia nera, anche se non ho ancora provato lo zigzag.
Per cosa passi il tempo a imparare senza diffondere? Solo per le belle tabelle? Fai qualcosa di reale.
Non si può. Ecco perché sono casuali, perché ci vogliono colonne casuali per allenarsi. La media dà poi buoni risultati.
Addendum: il numero di righe coinvolte nell'addestramento dovrebbe anche essere messo =1, cioè tutti in modo che l'addestramento sia lo stesso. Quindi tutto ciò che è casuale dalla foresta casuale viene rimosso.Potreste provare a impostare la frazione di colonna = 1. Cioè, tutte le colonne saranno coinvolte nella costruzione dell'albero, piuttosto che un 50% casuale di tutte le colonne. Tutti gli alberi saranno uguali, quindi impostate anche 1 albero nella foresta. In totale una foresta con un albero è addestrata a 6, l'altra a 7 livelli di profondità.
Se sono necessari più di 2 alberi, eliminate alcune colonne dall'insieme in modo indipendente e addestrate ulteriori foreste su tutte le colonne rimanenti.
Se c'è una regola di divisione fissa, senza casualità, questo è probabilmente ciò che accadrà. Volete fare una prova? Non so come fare le impalcature :(
15 timeframes, segnali su ogni barra. Anche i Revords, ma puoi cambiarli a seconda delle condizioni. Questo EA non è inizialmente addestrato, parte da un foglio bianco per fare trading immediatamente. Cioè non può essere rieducato per principio. Viene riqualificato dopo ogni scambio, mantiene la memoria delle entrate precedenti. I collegamenti ricorrenti possono essere aggiunti. Tutto è presente nel manuale, ho solo bisogno di capirlo. Ci lavorerò presto, voglio sviluppare un analogo in tensor-flow.
E come viene implementata questa memoria? Puoi spiegarlo in termini semplici?
Se c'è una regola di split fissa, senza casualità, questo è probabilmente ciò che accadrà. Volete fare una prova? Non so come costruire una foresta :(
Controllato - lo fa, almeno nell'impalcatura algleb. Solo le righe e le colonne sono randomizzate, se i loro coefficienti sono impostati =1, tutti gli alberi saranno uguali, cioè un albero è sufficiente per non perdere tempo nel calcolo della sua copia. Altri pacchetti possono randomizzare qualcos'altro...
Non voglio provare. Un albero con una profondità di 6 o 7 è sufficiente per me. Un albero con una profondità di 6,5 [un'analogia con la tua idea] non è troppo interessante. E pigro, naturalmente.
Come viene implementata questa memoria, puoi spiegarlo in termini semplici?
Non lo capisco ancora.
Controllato - lo è, almeno nella foresta di algib. Solo le righe e le colonne sono randomizzate, se i loro coefficienti sono impostati =1, tutti gli alberi saranno uguali, cioè un albero è sufficiente per non perdere tempo nel calcolo della sua copia. Altri pacchetti possono randomizzare qualcos'altro...
Non voglio provare. Un albero con una profondità di 6 o 7 è sufficiente per me. Un albero con una profondità di 6,5 [un'analogia con la tua idea] non è troppo interessante. E la pigrizia, naturalmente.
Capisco. Vedo solo la penultima scissione come un sottospazio su cui costruire un mini modello per studiarlo. Naturalmente le suddivisioni dovrebbero essere intelligenti, magari suddivise in base alle statistiche dell'intero campione piuttosto che del sottocampione. Ci dovrebbero essere probabilmente 3-5 spaccature e non di più prima che questo processo inizi. L'idea, tuttavia, è di ridurre l'impatto del vantaggio statistico casuale di una particolare divisione rispetto ad altre alternative.
E come viene implementata questa memoria? Puoi spiegarlo in termini semplici?
Andate in python, vi darò degli esempi, potete usarli.
Non vedo il senso di discuterne su questo forum, dato che la RL non è un argomento per principianti