L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 3023
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
È facilmente automatizzabile e funziona senza l'intervento umano.
un algoritmo simile è stato mostrato nell'ultimo articolo.
In sostanza, si tratta di filtrare gli errori del modello e di inserirli in una classe separata "non fare trading", meglio se attraverso un secondo modello che impara a separare il grano dalla pula.
e solo i chicchi rimangono nel primo modello
È lo stesso che con le regole ad albero, ma da un lato. Ma le regole devono essere saccheggiate e confrontate tra loro, e all'uscita c'è già una TS raffinata.
Ho giustificato sopra che non si possono scartare gli errori dei modelli.
Vorrei cambiare la mia opinione.
Ma per questo scopo è necessario.
Valutazione del modello iniziale sulla selezione di formazione e al di fuori di essa.
Valutazione di un modello "pulito" al di fuori della selezione di formazione che NON corrisponde ai due modelli precedenti.
È possibile?
Giustificato sopra che non si possono ignorare gli errori dei modelli.
Vorrei cambiare la mia opinione.
Ma per farlo.
Valutazione del modello iniziale con e senza la selezione di formazione
Stima di un modello "pulito" al di fuori della selezione di addestramento, che NON corrisponde ai due modelli precedenti.
Possiamo?
Ho aggiunto un paio di schermate qui sopra
Gli algoritmi per separare il grano dalla pula in questo modo possono essere diversi, vi mostro come lo faccio io.
A sinistra della linea tratteggiata c'è l'OOS, che non partecipa in alcun modo all'addestramento.
apprendimento su segni semplici come gli incrementi
la curva gialla è il grafico delle quotazioni in sé, non guardatelo. Ma è possibile utilizzarla per capire in quali situazioni il modello funziona meglio/peggio.Se si eliminano molti errori in una volta sola, l'insegnante degenera (potrebbero esserci molti errori e zero grani), quindi si eliminano gradualmente ad ogni iterazione
e l'errore su OOS diminuisce gradualmente, in questo caso r^2 aumenta
In sostanza, si tratta di un analogo di bestinterval di fxsaber, solo che qui il TS viene preparato in una sola voltaPenso che sia tutto elencato. Si tratta di un libro di Jeremy Howard, fondatore di Kaggle e framevoc fast.ai.
Fast.ai.
Libro in originale
Libro in russo
Versione gratuita
Se si eliminano molti errori in una volta sola, l'insegnante degenera (potrebbero esserci molti errori e zero grani), quindi si eliminano gradualmente ad ogni iterazione
e l'errore OOS diminuisce gradualmente, in questo caso r^2 aumenta.
In sostanza è un analogo di bestinterval di fxsaber, solo che in questo caso la TS viene preparata in una volta sola.Per me c'è un adattamento eccessivo alla citazione.
Dove si trova "Fuori campione"?
Per me la citazione è super adatta.
Dov'è "Fuori campione"?
Non fa più ridere.
Propongo di fare questo cappello con un albero in python con una scelta di foglie, in kolab, potete mettere i vostri dataset lì.
Se avete qualche idea su cosa sia meglio/peggio, su regole per prendere solo il meglio o attraverso alcuni filtri, suggeritelo.
Voglio fare un confronto, facendo passare un set di dati attraverso entrambi gli approcci. Così capiremo come stanno le cose :)
È facilmente automatizzabile e funziona senza l'intervento umano.
un algoritmo simile è stato mostrato nell'ultimo articolo.
In sostanza, si tratta di filtrare gli errori del modello e di inserirli in una classe separata "non fare trading", meglio se attraverso un secondo modello che impara a separare il grano dalla pula.
e solo i chicchi rimangono nel primo modello
È lo stesso che con le regole ad albero, ma da un lato. Ma le regole devono essere saccheggiate e confrontate tra loro, e all'uscita c'è già una TS raffinata.
Ad esempio, la prima iterazione della selezione dei grani dalla pula (a sinistra della linea tratteggiata verticale - OOS):
Ed ecco la decima:
Sì, il punto è lo stesso: lavorare in definitiva con dati che descrivono meglio i predittori.
Come farlo nel modo più efficiente è ancora una questione aperta: ogni metodo ha pro e contro.
Penso che sia tutto elencato. Si tratta di un libro di Jeremy Howard, fondatore di Kaggle e di framevoc fast.ai.
Fast.ai.
Il libro in versione originale
Libro in russo
Versione gratuita
Grazie! Dovrò cercarne uno gratuito in russo - il traduttore a volte fa delle perle e mi parla di salamoia, il che può essere utile :)