L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1050
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Solo un promemoria che Aleshenka e Koldun (sembrano essere gli unici qui che hanno qualche successo nel trading sulle reti neurali)
Ci sono prove di questo?
Alexander_K:
Tempo molto lungo per preparare i dati di input.
È una specie di standard, anche un principiante in MO direbbe "la spazzatura in entrata è spazzatura in uscita".
Io deliberatamente, con i miei post, provoco il loro feedback :))) Ahimè, mantenere questo segreto...
))) divertente
Ha qualche prova?
Cancellano quasi sempre i loro post, devi solo comunicare con loro online.
Cancellano quasi sempre i loro post, devi solo comunicare con loro online.
Ahh, beh, allora ha senso...
Cancellano quasi sempre i loro post, devi solo comunicare con loro online.
Cancellano i loro post per non mettersi in imbarazzo) e voi mantenete dei miti su di loro
Li stanno cancellando per non mettersi in imbarazzo) e voi state sostenendo dei miti su di loro.
Forse sì, Max - senza discussioni :))
E Reshetov? Beh, sì, conosce la MSUA, l'ha detto una volta.
L'idea stessa di enumerare predittori, creare modelli e poi creare modelli da modelli di complessità crescente è, secondo me, molto corretta.
Ma forse è un errore cercare non dei predittori ma delle soluzioni di trading system in un ambiente o altro...
Penso che sia troppo costruire modelli uno sopra l'altro, impilare o altro. Perché se stanno davvero imparando robaccia, non servirà a niente, è qualche frazione di miglioramento percentuale che non significa niente.
non c'è nessun errore, solo nessun modello coerente)
A proposito, quando si armeggia con il software di Reshetov, sia dal nome della sottodirectory della libreria del programma o da dove mi sono imbattuto su
http://www.gmdh.net/gmdh.htm
quindi deve essere lo stesso. Ci sono solo le libs in Java e anche il suo programma.
E poi ha un tandem di 2 classificatori - SVM e MLP, che sono iterativamente addestrati sulle caratteristiche trasformate. Ecco perché ci vuole così tanto tempo perché tutto funzioni.
Ma costruire modelli uno sopra l'altro, per impilare o altro è, imho, eccessivo. Perché se davvero stanno imparando robaccia, non aiuta, è qualche frazione di miglioramento percentuale, che non significa nulla.
Non fare qualcosa di più complicato da qualcosa di più primitivo, è un principio naturale, siamo derivati dallo sperma)) o da un'idea se si guarda ancora più lontano). E ora siamo tutti cresciuti)
Quindi non c'è niente di male nel complicare il modello, inoltre, la complicazione è controllata da un criterio esterno e interno, l'errore dentro e fuori il campione è misurato, se l'errore aumenta con la complicazione, l'algoritmo si ferma ... Non l'ho ancora usato ma il metodo mi piace molto
Non per fare qualcosa di più complesso da più primitivo, è un principio della natura stessa, siamo derivati dagli spermatozoi)) o dal pensiero se si guarda ancora più lontano...)
Quindi non c'è niente di male nel complicare il modello, inoltre, la complicazione è controllata da un criterio esterno e interno, cioè si misura l'errore dentro e fuori il campione... insomma, non l'ho applicato io stesso, ma il metodo mi piace molto
prendiamo una solita matrice con attributi, ad ogni iterazione aggiungiamo un nuovo attributo composto da tutti gli attributi, ci riaddestriamo, cambiamo questo attributo per uno più complesso attraverso il polinomio di Kolmogorov, ci riaddestriamo cinque volte... finché l'errore non scende
ma in pratica, questo non accadrà su dati rumorosi.
se l'errore è ancora cattivo, prendi tutti questi segni polinomiali e usali per creare nuovi segni :) ma hai bisogno di una rete neurale molto veloce o un modello lineare, altrimenti dovrai aspettare un anno
o ancora più facile - prendere SVM kernelizzato o NN profondo e ottenere lo stesso risultato (semplicemente aggiungendo strati nella rete neurale si può ottenere esattamente lo stesso risultato come nei tratti trasformati) cioè i miracoli accadono
Dice che il GMDH è il primo analogo della NN profonda
Prendiamo una matrice ordinaria con attributi, ad ogni iterazione aggiungiamo un nuovo attributo composito da tutti gli attributi, riqualifichiamo, cambiamo questo attributo con uno più complesso attraverso il polinomio di Kolmogorov, riqualifichiamo cinque volte... finché l'errore non scende
ma in pratica, questo non accadrà su dati rumorosi.
se l'errore è ancora cattivo, prendi tutti questi segni polinomiali e usali per creare nuovi segni :) ma hai bisogno di una rete neurale molto veloce o un modello lineare, altrimenti dovrai aspettare un anno
o ancora più facile - prendere SVM kernelizzato o NN profonda e ottenere lo stesso risultato (semplicemente aggiungendo strati nella rete neurale si può ottenere esattamente lo stesso risultato come nei tratti trasformati) cioè i miracoli accadono
Dice che il GMDH è il primo analogo del deep NN
Forse sì, non discuto o forse no))) Aggiungo solo che il trader con un super robot che ha usato GMDH non ha applicato un polinomio in prove ma serie di Fourier (armoniche) e come sappiamo l'analisi dello spettro di Fourier non è applicabile ai mercati finanziari perché è progettata per funzioni periodiche, ma tuttavia ha funzionato e simili) Quindi, diavolo sa, dovremmo provare tutto...
eppure ha funzionato per l'uomo, e come.
C'è una continuazione della storia?
Ho osservato che se un sistema di trading dà solo risultati positivi, allora ci sarà una perdita permanente - stiamo parlando di TS con lotto fisso e stoploss