L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 427
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Non ha importanza in linea di principio. Il potere predittivo è nullo....
È come guardare il capitale e dividere il profitto per il drawdown.
E migliore è la previsione, più alto è lo SR
Quindi cosa c'entra la previsione, è come guardare l'equity con gli occhi e dividere il profitto per il drawdown, è più o meno SR
E migliore è la previsione, maggiore è la SR.
E in questo caso. Allora sì. Concordo completamente....
Puoi dirmi, hai scritto qui https://www.mql5.com/ru/blogs/post/160258 che RF è il miglior classificatore tra quelli proposti, sono d'accordo con questo. E per quanto riguarda il diplerning di terza generazione (con autocodificatori), avete fatto qualche test comparativo?
A proposito di GARCH per quanto ne so è un modello lineare per prevedere la volatilità, non prevede la direzione del mercato, o mi sbaglio?
GARCH è un modello di volatilità, predice la direzione e la dimensione della prossima candela. Il timeframe può essere diverso: M5, M30, D1, qualsiasi. Ma di solito è un TF superficiale fino al trading ad alta frequenza.
Ciò che mi attrae ad usare GARCH è l'analisi della quotazione iniziale per dimostrare che il GARCH addestrato si comporterà allo stesso modo nella storia e nel futuro.
L'idea è quella di combattere la non stazionarietà (media variabile e deviazione variabile dalla media), che è considerata il male principale per le prestazioni future dell'Expert Advisor.
Il modello stesso ha tre componenti:
Inizialmente, vengono calcolati gli incrementi di prezzo. Poi si scrivono le formule per questo incremento:
1. per il comportamento della media
2. per il comportamento di deviazione dalla media (volatilità). Ci sono molte varianti, comprese quelle esponenziali e di soglia (intendo la linearità del modello)
3. La legge di distribuzione della media.
Se fosse possibile scegliere "correttamente" i parametri di tutte queste parti, il residuo dovrebbe essere normalmente distribuito, che è una garanzia del comportamento del modello nel futuro simile ai dati storici.
Qualcosa del genere, molto approssimativamente.
Puoi dirmi, hai scritto qui https://www.mql5.com/ru/blogs/post/160258 che RF è il miglior classificatore tra quelli proposti, sono d'accordo con questo. E per quanto riguarda i diplinking di terza generazione (con encoder automatici), avete fatto qualche test comparativo?
Ho sentito che diplinking è un po' diverso, è tutto sulla ricerca automatica di caratteristiche SEMPLICI, in strutture gerarchiche, come immagini o testo, dove angoli e linee di cui sono figure semplici con forme più complesse e così via. Per quanto riguarda le serie temporali non è proprio la stessa cosa. Quindi se la rete neurale a convoluzione profonda trova freddamente i gatti e le facce sulle foto, non significa che predirà freddamente il mercato, inoltre tutto il "profondo" è una seccatura enorme per gli utenti, è una seccatura enorme anche per quelli che hanno ricreato l'intera rete da zero in C++ per 10 volte, molti parametri sono molto instabili, i risultati sono casuali. Devi affrontarlo per molti anni. Ma non è il mio IMHO, non l'ho mai provato e probabilmente non lo farò.
Non è un cattivo risultato, è fantastico, sono sicuro che nemmeno Renaissance ha qualcosa del genere con i suoi terabyte di dati al giorno. Guardate il live-score su numer.ai e pensate perché hanno almeno il 45% di tasso di errore(logloss~0.69) e voi il 30%.
Ma quello che dici è vero, hai creato la tua funzione target sintetica, che è funzionalmente legata alle caratteristiche in un modo intelligente (ovviamente non ovvio per te) e hai una così bella scansione su Lorn e test e tutto sembra giusto... Ma perché non sei ancora miliardario, anche se potresti facilmente diventarlo in circa un anno se avessi il 30% di errore nel predire il prossimo colore della candela, perché non prevedi il futuro ma il passato mescolato al futuro tramite indicatore. Provate a predire un puro ritorno futuro e tutto andrà a posto.
Hai detto molto signorino, ma non hai detto niente di concreto, mentre ti è stato subito offerto di mostrare, non di urlare a tutti quello che non va in ZZ e quello che serve.
https://ru.stackoverflow.com/a/683632/1084
Ho sentito che il diplanning è un po' diverso, si tratta di una ricerca automatica di caratteristiche SEMPLICI, in strutture gerarchiche come immagini o testo, dove i bordi sono angoli e linee con forme semplici di cui sono più complessi e così via. Per quanto riguarda le serie temporali non è proprio la stessa cosa. Quindi se la rete neurale a convoluzione profonda trova freddamente i gatti e le facce sulle foto, non significa che predirà freddamente il mercato, inoltre tutto il "profondo" è una seccatura enorme per gli utenti, è una seccatura enorme anche per quelli che hanno ricreato l'intera rete da zero in C++ per 10 volte, molti parametri sono molto instabili, i risultati sono casuali. Devi affrontarlo per molti anni. Ma non è il mio IMHO, non l'ho mai provato e probabilmente non lo farò mai.
Non è così male come lo fai sembrare.
Non è molto difficile, iniziate con questi pochi articoli(1, 2, 3, 4). Non funzionerà tutto in una volta e non avrà senso, ma sarà utile.
Buona fortuna
Ho sentito che il diplanning è un po' diverso, si tratta di una ricerca automatica di caratteristiche SEMPLICI, in strutture gerarchiche come immagini o testo, dove i bordi sono angoli e linee con forme semplici di cui sono più complessi e così via. Per quanto riguarda le serie temporali non è proprio la stessa cosa. Quindi se la rete neurale a convoluzione profonda trova freddamente i gatti e le facce sulle foto, non significa che predirà freddamente il mercato, inoltre tutto il "profondo" è una seccatura enorme per gli utenti, è una seccatura enorme anche per quelli che hanno ricreato l'intera rete da zero in C++ per 10 volte, molti parametri sono molto instabili, i risultati sono casuali. Devi affrontarlo per molti anni. Ma non è il mio IMHO, non l'ho mai provato e probabilmente non lo farò mai.
Vedo, penso che in pratica nessuno qui e non confrontare :) cercherò informazioni, che alla fine non essere ingannato se si scopre che il diplerning non dà vantaggi rispetto ai boschi. E dato che il componente lì è un MLP, può anche essere che non lo faccia...
A proposito, qualsiasi cosa con più di 2 strati è chiamata diplerning, MLP con 2 strati nascosti è anche diplerning. Mi riferivo alle reti profonde, che Vladimir ha descritto nell'articolo del link qui sopra.
Anche se si dice che i predittori sono più importanti, perché i modelli funzionano allo stesso modo... ma questa è teoria, in pratica si scopre che la selezione del modello è anche molto importante, per esempio un compromesso tra velocità e qualità, perché NS è solitamente lungo...
In pratica, il mix P-MT5 tramite una libu è troppo lento e non conveniente, ho bisogno di un nativo senza alcun software di sinistra o connessione diretta al server P da MT5, ma un nativo è meglio. Voglio riscrivere la rete neurale di cui ho bisogno su mql con C++ e questo è tutto.
ah, ho dimenticato di aggiungere IMHO
Ahem... ahem... ho riflettuto, riflettuto...
Ci sono un sacco di modelli, dai classici come ARMA/GARCH a scoperte complete come CNN/LSTM, da qualche parte nel mezzo del preferito MLP\RF\XGB e così via. Ma come unificare il tutto? In modo che, per esempio, potremmo scambiare / vendere modelli addestrati in un formato universale, leggibile ovunque senza librerie speciali e di formazione, che ha cercato di passare qualcuno qualcosa di non banale modello probabilmente capire cosa mi ))))
E poi ho capito che il numero.ai - ha risolto questo problema! Quello che gli mandano in realtà non sono solo previsioni, ma un modello muto già pronto, campionato con sufficiente accuratezza. In realtà dovrebbe essere così, altrimenti come si può ottenere fiche dal futuro in anticipo per dare una risposta a loro, le fiche sono in tempo reale, non si possono conoscere in anticipo. Ma se riempiamo lo spazio N-dimensionale con una griglia di punti, allora un nuovo punto, il più vicino (o i più vicini) dalla griglia, che vengono cercati istantaneamente come un elemento dell'array per indice. E qualsiasi modello semplice e complicato può essere arrotolato in un modello del genere, facilmente trasferibile e utilizzabile senza rivelarne i segreti.
Rispetto a numer.ai, l'idea è super!
Propongo di riflettere su come può essere usato nella nostra misera comunità)))