L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1964

 
Aleksey Vyazmikin:

Forse non ho chiarito prima che ci dovrebbe essere almeno l'1% degli indicatori rimasti nel foglio nei piccoli campioni e 100 nei grandi campioni, quindi ovviamente la divisione non sarà al punto di non avere errori nel foglio per nessuna classe.

Sembra che tu abbia frainteso l'ultimo passo - io lo vedo come una valutazione statistica del campione rimanente dell'1% - in questo campione osserviamo che il risultato migliora con le suddivisioni per diversi predittori, otteniamo informazioni di sottospazio, per esempio:

Se A>x1, allora il target 1 sarà corretto al 40%, cioè al 60% del sottocampione

Se B>x2, allora il target 1 sarà identificato correttamente con il 55%, che è il 45% del sottocampione.

Se A<=x1, allora il target 1 sarà definito correttamente dal 70%, che è il 50% del sottocampione

Ognuno di questi split ha un fattore di significatività (non ho ancora deciso come calcolarlo), e anche l'ultimo split ne ha uno.

e così via, diciamo fino a 5-10 predittori, poi quando si applica, se si raggiunge l'ultimo split, si sommano i coefficienti (o si usa un metodo di somma più complicato), e se la somma dei coefficienti supera la soglia, allora il foglio è classificato 1, altrimenti zero.


Un modo semplice per implementare questo è quello di costruire forzatamente una foresta fino al penultimo split, e poi escludere i predittori già selezionati dal campione, in modo da selezionarne di nuovi. O semplicemente, dopo aver costruito l'albero, filtrare il campione per foglia e passare attraverso ogni predittore da solo alla ricerca della migliore divisione che soddisfi il criterio di completezza e precisione.

E, il risultato sul campione di formazione migliorerà se l'altra classe "0" significa nessuna azione e non l'ingresso opposto, altrimenti ci può essere sia un miglioramento che un peggioramento.

Il risultato dell'addestramento sarà ancora qualcosa tra un albero addestrato a N e N+1 profondità, per esempio 6 e 7. Se al livello 6 l'errore è del 20% e al livello 7 l'errore è del 18%, il vostro metodo darà un errore tra i due, ad esempio 19%. Pensi che il guadagno dell'1% valga il tempo?
In precedenza è stato descritto un modo semplice: addestrare alcuni alberi al livello 6 e alcuni al livello 7 di profondità. Questo richiederebbe la riscrittura del codice.
Ora ho trovato un modo più semplice, dato che non si deve riscrivere nulla. Basta costruire una foresta casuale con qualsiasi pacchetto al livello 6 e un'altra foresta al livello 7, poi fare la media.


Il campione diallenamento non deve preoccuparci - è sempre perfetto.

 
elibrarius:
Tutto sommato, il risultato dell'addestramento sarà qualcosa tra un albero addestrato a N e N+1 profondità, per esempio 6 e 7. Se al livello 6 l'errore è del 20% e al livello 7 l'errore è del 18%, il vostro metodo vi darà l'errore intermedio, per esempio il 19%. Pensi che il guadagno dell'1% valga il tempo?
In precedenza è stato descritto un modo semplice: addestrare alcuni alberi al livello 6 e alcuni al livello 7 di profondità. Questo richiederebbe la riscrittura del codice.
Ora ho trovato un modo più semplice, dato che non si deve riscrivere nulla. Basta costruire una foresta casuale con qualsiasi pacchetto al livello 6 e un'altra foresta al livello 7, poi fare la media.


Il campione diallenamento non deve preoccuparci - va sempre bene.

Il guadagno è solitamente superiore all'1%.

Naturalmente si possono randomizzare le foreste, ma come si fa a farle essere uguali fino alla penultima divisione? Supponiamo che tu alleni 10 alberi al 6° spacco, e ne alleni altri 10 allo stesso modo, ma al 7°.

 
Aleksey Vyazmikin:

Il guadagno è solitamente superiore all'1%.

Naturalmente si possono avere foreste casuali, ma come si fa a farle essere uguali fino alla penultima divisione? Diciamo che insegniamo 10 alberi al 6° spaccato, e insegniamo gli altri 10 nello stesso modo, ma al 7° spaccato.

Assolutamente no. Ecco perché sono casuali, dato che prendiamo colonne casuali per l'allenamento. La media dà quindi buoni risultati.
Potete provare a impostare la frazione di colonne = 1. Cioè, tutte le colonne sarebbero coinvolte nella costruzione dell'albero, piuttosto che un 50% casuale di tutte le colonne. Tutti gli alberi saranno uguali, quindi impostate anche 1 albero nella foresta. In totale una foresta con un albero è addestrata a 6, l'altra a 7 livelli di profondità.
Se hai bisogno di più di 2 alberi - allora rimuovi indipendentemente alcune colonne dal set e addestra ulteriori foreste su tutte le colonne rimanenti.

Aggiungete anche: il numero di righe che partecipano all'addestramento dovrebbe anche essere impostato su 1, cioè tutti in modo che l'addestramento sia lo stesso. Quindi tutto ciò che è casuale dalla foresta casuale viene rimosso.
 

È una sfida trovare la logica di trading per questo ns

Finora siamo arrivati a questo.


più l'architettura ns varia su una vasta gamma

l'importante è farlo bene

 
Maxim Dmitrievsky:

È una sfida trovare la logica di trading per questo ns

Finora siamo arrivati a questo.


più l'architettura ns varia su una vasta gamma

la cosa principale è scegliere la giusta ricompensa

Ancora una volta preso sul NS con i rinforzi? Sembra che usino la ricompensa

 

Suggerisco di fare dei test su questi dati, c'è sicuramente un modello ed è chiaro a cosa puntare.

ps rimuovi .txt dal nome

File:
test.zip.001.txt  15360 kb
test.zip.002.txt  13906 kb
 

In un mese e mezzo. Autoapprendimento completo senzaintervento

Farò qualche altra ricerca più tardi... troppi parametri

 
Maxim Dmitrievsky:

In un mese e mezzo. Autoapprendimento completo senzaintervento

Farò qualche altra ricerca più tardi... troppi parametri

Non male).
 
Maxim Dmitrievsky:

In un mese e mezzo. Autoapprendimento completo senzaintervento

Farò qualche altra ricerca più tardi... troppi parametri

Questo è su nuovi dati commerciali o come lo capite?

 
mytarmailS:

Quindi questo è su nuovi dati commerciali o come si capisce?

Tu lo fai funzionare e lui commercia, impara man mano che vai avanti.