L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3163
![MQL5 - Linguaggio delle strategie di trading integrato nel client terminal MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Opinione sul tentativo di insegnare il forex insegnando agli agenti a giocare.
C'è qualche pesce che ha provato qualcosa di simile, qualche esperienza.Ho trovato un altro problema.
In generale si nota un adattamento non solo alla dimensione della finestra, ma anche all'inizio della finestra. Piccoli offset fanno una grande differenza nel risultato. Non ci sono caratteristiche forti, tutto è al limite del 50/50 ± 1-2%.Ho trovato una buona variante con allenamento una volta alla settimana su 5000 linee di M5 (3,5 settimane). E ho deciso di spostare tutti i dati su 300 linee - come se l'allenamento non avvenisse il sabato, ma il martedì. Di conseguenza, il modello su OOS da redditizio è diventato non redditizio.
Queste nuove 300 linee (circa l'8% del totale) hanno fatto emergere altri chip e altri split, che sono diventati migliori per i dati leggermente modificati.
Ripetuto lo spostamento di 300 righe per 50000 righe. Sembrerebbe solo lo 0,8% delle nuove righe. Ma anche i cambiamenti sull'OOS sono significativi, anche se non così forti come con 5000 righe.
Questo sembra essere un problema comune agli alberi: la mancanza di robustezza.
C'è una flebile speranza che sia possibile un miglioramento passando a regole di divisione più elaborate (in termini di matstat). Si tratta di qualcosa di simile agli stessi "alberi di differenza" di cui ho fornito un link a un articolo di recente. O qualcosa come la statistica chi-quadro CHAID.
Naturalmente, questa non è una panacea e non è detto che questi esempi specifici di regole di divisione funzionino per noi. Ma è un esempio del fatto che le regole di divisione possono e devono essere trattate in modo creativo.
L'idea principale da trarre da matstat è quella di interrompere la crescita dell'albero quando si raggiunge un valore p critico, non per ragioni di sinistra.Ho trovato un altro problema.
In generale si nota un adattamento non solo alla dimensione della finestra, ma anche all'inizio della finestra. Piccoli offset fanno una grande differenza nel risultato. Non ci sono caratteristiche forti, tutto è al limite del 50/50 ± 1-2%.Ho trovato una buona variante con allenamento una volta alla settimana su 5000 linee di M5 (3,5 settimane). E ho deciso di spostare tutti i dati su 300 linee - come se l'allenamento non avvenisse il sabato, ma il martedì. Di conseguenza, il modello su OOS da redditizio è diventato non redditizio.
Queste nuove 300 linee (circa l'8% del totale) hanno fatto emergere altri chip e altri split, che sono diventati migliori per i dati leggermente modificati.
Ripetuto lo spostamento di 300 righe per 50000 righe. Sembrerebbe solo lo 0,8% delle nuove righe. Ma anche i cambiamenti sull'OOS sono significativi, anche se non così forti come con 5000 righe.
Quale modello?
Quale modello?
legno
Interessante articolo sugli alberi e l'apprendimento per rinforzo in .....
https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4760114/
============================
idea principale
2.2 Motivazione
In breve, il modello ad albero con apprendimento per rinforzo (RLT) proposto è un modello tradizionale di foresta casuale con un tipo speciale di selezione delle variabili di separazione e di soppressione delle variabili di rumore. Queste caratteristiche sono rese disponibili dall'implementazione del meccanismo di apprendimento per rinforzo in ogni nodo interno. Consideriamo innanzitutto un esempio di scacchiera che dimostra l'impatto dell'apprendimento per rinforzo: Supponiamo che X ~ uni f [ 0, 1 ] p e E ( Y | X ) = I { I ( I ( X (1) 0 .5) = I ( X (2) >0 .5)} La difficoltà nello stimare questa struttura utilizzando le solite foreste casuali è che nessuna delle due variabili forti mostra effetti insignificanti.La ricompensa immediata , cioè la riduzione degli errori di previsione, derivante dal partizionamento in queste due variabili è asintoticamente identica alla ricompensa ottenuta dal partizionamento in una delle variabili di rumore. Pertanto , quando p è relativamente grande, è improbabile che X (1) o X (2) vengano scelte come variabili di separazione. Tuttavia, se sappiamo in anticipo che la suddivisione su X (1) o X (2) produrrà significativi vantaggi futuri per le suddivisioni successive, potremmo forzare con sicurezza la suddivisione su una delle due variabili, indipendentemente dalle ricompense immediate.
=========================
Bene, e pacchetto su R di conseguenza
https://cran.r-project.org/web/packages/RLT/RLT.pdf
in legno
Qual è il nome esatto? O è fatto in casa?
Ho utilizzato diversi modelli "in legno" per molti anni e non ho mai visto nulla di simile.
Posso forzarla, ma non so con quale scheda si dovrebbe X1, X2, o X157
Qual è il nome esatto? O è fatto in casa?
Ho utilizzato diversi modelli "in legno" per molti anni e non ho mai visto nulla di simile.
È necessario trovare un coreset che abbia un modello e allenarsi solo su di esso. Può essere su qualsiasi pezzo del grafo, viene cercato attraverso l'enumerazione. Altrimenti, il rumore non permette al modello di concentrarsi. La tendenza attuale è quella dei coreset, piccoli sottocampioni rappresentativi. È piuttosto semplice e produce risultati.
Come si effettua la ricerca? Passare in rassegna tutti i pezzi (ad esempio 100 per 5000 pp) e vedere quanto successo hanno le altre 500.000 righe di quel modello nel predire le altre 500.000 righe?