L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 1227
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
Le fiches sono un gioco da ragazzi in generale, è difficile dire qualcosa di utile, e le specifiche, beh, sai...
Ci sono una serie di "regole" che permettono di evitare gravi errori nella costruzione di caratteristiche con serie temporali, in particolare uno dei più violati è una banale "mescolanza" di caratteristiche con obiettivi, le caratteristiche dovrebbero essere rigorosamente dal passato, e gli obiettivi da punti rigorosamente dal futuro, questa separazione dovrebbe essere a livello di algoritmo di conversione delle serie in dataset, e non come tutti fanno tutti i tipi di indicatori poi tagliati per tracciare e testare, spostare qualcosa da qualche parte e così via. Dovremmo tagliare la serie iniziale e poi usare finestre scorrevoli (passato e futuro) per scorrere la serie e ottenere caratteristiche e obiettivi separatamente per Lerne e test, o anche per la validazione. Naturalmente, si può fare con gli indicatori, se si sa con certezza che l'indicatore per le caratteristiche non guarda avanti e per gli obiettivi non guarda indietro. Ci sono alcuni errori più sottili, ma non ne parlerò ora.
Le trasformazioni stesse possono essere diverse, che vanno dalle più banali (ritorno, variazione, cambiamento di volume, delta della pila, distribuzione degli affari, ecc.) a tutte le specie di quelle esotiche.) decine di statistiche specifiche personalizzate ottenute per "ispirazione" o clustering che si sono rivelate utili, come "tendenza/estate" (menzionato da Inokenty sopra), così come "ordine/haos" e altri. Alcune statistiche sono valide per diversi timeframes, altre no, alcune funzioni funzionano per alcuni strumenti, altre no, bisogna sapere come filtrare e selezionare gli attributi per il targeting. Ci sono molte cose, modelli ARMA standard , GARCH ... Previsioni macro a medio e lungo termine come caratteristiche, ecc. Non ho ancora iniziato a fare NLP\NLU per l'analisi dei flussi di testo, dai social network, ecc. È lì che i guadagni da immersione saranno sicuramente necessari.
Quando stavo ripetendo gli articoli di Vladimir Pererwenko, ho fatto un ulteriore esperimento - senza indicatori aggiuntivi(filtri digitali per gli ultimi articoli), cioè puramente sui prezzi. Il risultato è stato solo un paio di punti percentuali peggiore. E anche allora penso che sia solo un allenamento meno riuscito di NS (diversa miscelazione e inizializzazione dei pesi, e OHLC non erano dall'articolo, ma dal mio server). NS farà facilmente qualsiasi indicatore al suo interno se ne ha bisogno per le previsioni. Penso che non ci sia bisogno di indovinare quale DF con quali parametri (LPF/FTF/bandpass o qualche MA) è utile per la previsione. L'NS farà tutto da solo con l'OHLC.
Ma sugli errori più sottili è ancora interessante sapere...
È un peccato che le informazioni utili su MO per BP siano sparse in più di 1200 pagine. Vorrei che fosse tutto in un unico posto, se non le idee di lavoro, almeno i vicoli ciechi come ZZ, PCA e le sbirciatine avanti/indietro.
Quindi il "graal" può essere solo nel contesto dell'ultra-hft, o meglio c'era quando non c'era questa torbida regolamentazione, o un insider che è a disposizione di tipi che senza di esso possono semplicemente stampare pasta in una crisi e comprare le loro obbligazioni con essa))
Ci risiamo...
Non me ne frega un cazzo dei vostri trilioni e degli addetti ai lavori, conoscete il detto "un cane abbaia ma la carovana traccia", non abbiamo bisogno dei vostri insulti alla casa di intermediazione dove avete lasciato le vostre ultime cento sterline, il mondo non è giusto, voi siete sfortunati, io sono fortunato, farò un milione da cento, e se non lo farò, ci riproverò, finché non lo farò.
Non impedirci di sognare yacht e isole e di trasformare i nostri sogni in realtà passo dopo passo. Non sanno nemmeno dove scaricare Voronov e come distinguere una tendenza da un piatto.
Ci risiamo...
Non abbiamo bisogno dei tuoi insulti alla casa di intermediazione dove hai lasciato le tue ultime cento sterline, il mondo non è giusto, tu sei stato sfortunato e io sarò fortunato, farò un milione da cento e se non lo farò, ci riproverò finché non ci riuscirò.
Non impedirci di sognare yacht e isole e di trasformare i nostri sogni in realtà passo dopo passo. Sono tutti "guru" che non sanno nemmeno dove scaricare Voronov e come distinguere un trend da un flat.
So che nessuno l'ha provato, ma forse:
ordinare le operazioni per profitto/perdita, rispettivamente, quando si dividono le operazioni in classi, dare più probabilità a quelle più redditizie, a quelle meno redditizie circa 0,5. Cioè basta ordinare i trade in base all'efficienza e assegnare loro delle probabilità, è chiaro che i trade più efficienti appariranno meno, e quelli rumorosi appariranno di più.
Vale la pena sperimentare? L'errore dovrebbe diminuire?
So che nessuno l'ha provato, ma forse:
ordinare le operazioni per profitto/perdita, rispettivamente, quando si dividono le operazioni in classi, dare più probabilità a quelle più redditizie, a quelle meno redditizie circa 0,5. Cioè basta ordinare le offerte in base all'efficienza e assegnare loro delle probabilità, è chiaro che le offerte più efficaci appariranno meno, e quelle rumorose di più.
Vale la pena sperimentare, l'errore dovrebbe diminuire?
1 2 In parte sì, un fenomeno di tendenza, ma questa è la mia opinione, il "deep learning" stesso non è in realtà regressione/classificazione, ma un modo di estrarre caratteristiche piuttosto semplici organizzate gerarchicamentedai dati di un certo tipo, per esempio le immagini di pixel disegnate dalla luce riflessa che arriva in una macchina fotografica dal "mondo reale", di per sé come luminosità dei pixel, sono caratteristiche molto cattive se le infilate così come sono in un classificatore e CNN fa una specie di "decorrelazione dei pixel adiacenti" e di compressione della dimensionalità, in più passaggi, simile può essere fatto se raggruppiamo le immagini in piccoli frammenti, in generale il "deep learning" è una sorta di clustering in più passaggi e poi alimentando "caratteristiche di alto livello" in un classificatore regolare. L'argomento è certamente molto interessante, ma è ora di svilupparlo teoricamente, non solo di "analizzarlo" con reti neurali di diversa architettura addestrate con backprop terribilmente lento. Ma ancora una volta non sono riuscito a rendere il diplerning amichevole con il mercato, anche se la questione è aperta, perché è troppo costoso sperimentare in questa direzione, come hai giustamente notato.
3 Non devi mettere costanti nelle foglie dell'albero, puoi mettere modelli lineari, o più complessi, poi ci sarà "estrapolazione" oltre la nuvola di punti))
4 Hai sbagliato qualcosa e la foresta e il boosting possono fare la regressione, nessun problema.
3. cioè è possibile combinare e mettere altri modelli nelle foglie dei modelli dell'albero solutore, mi chiedo come funziona, si prega di dare un esempio reale.
4. Non sono confuso e vedo il problema, perché finora non ho incontrato l'implementazione su scaffolding del problema della regressione con molti output (variabili dipendenti) come sulle reti neurali.
Prendete, per esempio, la funzione di costruzione della foresta casuale dalla libreria MQL alglib.mqh
cioè quando il numero di variabili dipendenti è più di uno, questa funzione può risolvere solo il problema di classificazione. Porta la tua implementazione con la soluzione a questo problema, e per favore nel codice, dopo tutto siamo su un forum di programmatori :)
So che nessuno l'ha provato, ma forse:
ordinare le operazioni per profitto/perdita, rispettivamente, quando si dividono le operazioni in classi dare più probabilità a quelle più redditizie, a quelle meno redditizie circa 0,5. Cioè basta ordinare i trade in base all'efficienza e assegnare loro delle probabilità, è chiaro che i trade più efficienti appariranno meno, e quelli rumorosi appariranno di più.
Vale la pena sperimentare, l'errore dovrebbe diminuire?
Se è in tester e per trovare i punti di entrata giusti indirettamente, attraverso la redditività delle operazioni, perché non trovarli subito e in modo ideale, per serie di prezzi, anche se l'ho già chiesto nel ramo Monte Carlo:)
allora ci saranno pochi esempi e i nuovi dati ci renderanno un cieco perdente, abbiamo bisogno di lei per "vedere" il più possibile nella sua vita
non si può andare solo per uno zigzag ideale perché non sarà possibile trovare le caratteristiche, dovrebbe essere un processo a doppio taglio di provare tutto contemporaneamente :)
Sto già pensando se prendere più classi invece di 2
poi ci saranno pochi esempi e su nuovi dati ns diventerà cieco perso, lei dovrebbe "vedere" nella sua vita il più possibile
è logico, ma d'altra parte potrebbe essere meglio vedere meno e scambiare solo una cosa sicura piuttosto che segnalare continuamente e aumentare il rischio.
Beh, io cerco sempre degli errori in un campione di prova. Questa "cosa sicura" appare solo a un essere umano, mentre noi "pensiamo" diversamente.
Penso che il modo in cui una rete neurale pensa... non le importa se è una cosa sicura o no, basta che possa generalizzare
se metti qualche schifezza nell'intervallo 0,5, e i picchi sono scambi di qualità, la capacità di generalizzazione migliorerebbe... dovresti controllarla, ovviamente, perché non puoi farlo a occhio