L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2539
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
La mia opinione è solo Open o tic.
Beh, è una questione di opinioni. In termini di certezza del tempo vicino è il più preciso.
E apprezzerei se qualcuno rispondesse. Ho appena iniziato a leggere questo thread. Sono a circa 100 pagine. Interessante, grazie agli autori del primo periodo. È come un diario. Errori, scoperte, delusioni, gioie del successo, speranze deluse... Un romanzo, nel senso buono della parola. Imparato qualcosa di nuovo, ricordato qualcosa di vecchio, riso (non senza questo). La vita quotidiana di un cercatore d'oro in piena regola. La mia domanda è semplice, in questo apprendimento automatico, la "macchina" rimarrà una scatola nera? Gli abbiamo dato degli input/precetti e vogliamo avere una risposta? Hanno guardato nelle "viscere" di cosa e come si cuoce...? Forse hanno provato a tradurre la macchina nel linguaggio MQL che trovano qui?
Probabilmente finirò il thread, sta andando bene finora, ma apprezzerei gli spoiler)
Beh, è una questione di opinioni. In termini di certezza del tempo, la chiusura è la più accurata.
in termini di incertezza nella candela, conosciamo o il tempo o il prezzo esattamente... per chiudere il tempo, per aprire il prezzo :-)
figurativamente, quando dalle 15.58 alle 16.03 non ci sono tick (e questa è una situazione normale, ci sono momenti tipici di tali buchi), allora close conosce l'ora 16.00 ma il prezzo sbagliato, e per open l'ora sbagliata è il prezzo corretto/rilevante
E apprezzerei se qualcuno rispondesse. Ho appena iniziato a leggere questo thread. Sono a circa 100 pagine. Interessante, grazie agli autori del primo periodo. È come un diario. Errori, scoperte, delusioni, gioie del successo, speranze deluse... Un romanzo, nel senso buono della parola. Imparato qualcosa di nuovo, ricordato qualcosa di vecchio, riso (non senza questo). La vita quotidiana di un cercatore d'oro in piena regola. La mia domanda è semplice, in questo apprendimento automatico, la "macchina" rimarrà una scatola nera? Hai dato in pasto input/preferenze e vuoi avere una risposta per il giorno? Hai guardato nelle "viscere" di cosa e come si cuoce...? Forse hanno provato a tradurre la macchina nel linguaggio MQL che trovano qui?
Probabilmente finirò il thread, sta andando bene finora, ma apprezzerei qualche spoiler)
Per raggiungere l'illuminazione iniziate con un ramo su Onyx e solo dopo iniziate questo *sarcasmo
Leggi i libri
Penso che la filosofia qui sia semplice:
(H+L)/Close. cioè close. come il più giusto (equilibrio) al momento attuale(!) Momento, H/Close+L/Close, come la somma delle frazioni nell'arco di tempo, con un totale di + o - cioè risultato di slancio in su/giù... imho
. La mia domanda è semplice, in questo apprendimento automatico, la "macchina" rimarrà una scatola nera? Gli dai degli input/predicati e vuoi ottenere una risposta per il giorno?
In teoria, sì, ma dov'è il vettore dei pesi o la trasformazione delle coordinate avanti+indietro?
Il MNC è quasi un metodo universale, che posso dire ... Voglio dire, è astratto, ma perché funzioni, hai bisogno della fisica del processo...
.. VMNC - MNC ponderato (bilancia, per esempio, la dispersione)... in generale, mi sembra che tutto ciò che è brillante dovrebbe essere semplice...
non so cosa stiano preparando
predittori per MO probabilmente (le scale sono coinvolte)
Ho il sospetto che compongano una funzione come
prezzo = a1*y1+a2*y2+...aN*yN
un trucco logico in linea di principio
è interessante quello che risulterà
solo se lo spezzi in segmenti, probabilmente devi anche moltiplicare ogni parte per qualcosa relativo all'angolopolinomiale - per l'analisi multivariata (e la vostra formula - lineare!!! - a proposito, il coefficiente a alla tua y [anche se x] è l'angolo) - ... per fattore singolo - solo una tipica equazione della linea retta (y=kx+bias)...
e qui inizia la parte più interessante della differenziazione - l'ordine del polinomio (=numero delle sue curve-1 e la propagazione del segnale dall'inizio della formazione alla fine) -- non bisogna certo farsi prendere la mano, ma se la realtà è tale che dy/dx=a^3x (non una dipendenza lineare) e oltre. -- allora non credo che ci sia molto da fare qui -- prendere la derivata di quello che c'è (credo di aver visto da qualche parte raccomandazioni per la differenziazione a seconda delle differenze 1s e 2s => scegliere il grado del polinomio -- non lo trovo)... O considerare il CDF e scartare i persentili estremi... imho per trovare la media... O di sfruttarli come segnali nell'analisi della deviazione dalla media... imho... Questo è il modo in cui Maxim Dmitrievsky lo mette in termini di ML
+ e anche il problema di una pendenza smorzata o aumentata è sempre all'ordine del giorno... Immagino che sia qui che un'adeguata ponderazione torna utile... Anche se la filosofia della ponderazione di nuovo può essere diversa per i sostenitori della "libertà di scegliere i pesi"... Odio i combattenti della libertà in lingua russa (così cominciano a distorcere le correlazioni reali e le relazioni causa-effetto anche nelle formule) -- la giusta differenziazione (cioè le giuste variabili) darà i giusti pesi, e la giusta architettura NN aiuterà a portare il significato dei pesi al risultato di apprendimento... imho
p.s.
comunque, per me le frazioni H e L da vicino ispirano più fiducia che solo da vicino... - questo è il punto qui - per impostare correttamente le scale nella scatola nera (ecco perché è importante ciò che è in ingresso e ciò che è fuori) - per non ottenere irragionevolmente alti/bassi dsp... e per non perdere gradiente significativo in fase di apprendimento - e come Mikhail Mishanin ha già detto (prima che il thread affondi in diluvi e battibecchi) - "lasciare che il più importante per sopravvivere ed evolvere"
in NN - quasi come su Titanik
Io commercio con un polinomio come questo e non mi preoccupo
Come ho detto prima, il polinomio in sé non è importante quanto il metodo per ottenerlo. Ma tutti diventano sordi quando non riescono a capire una semplice frase...Ho ancora più fiducia nelle quote H e L di close che in close...
Lo aggiungo/rifiuto io stesso:
equi di nuovo lo stesso problema - le raccomandazioniqui- le frazioni non possono essere una panacea, ma la gamma dinamica può non essere affatto "differenza di periodo tra 2 chiusure"
Naturalmente è molto importante per una performance stabile e una previsione efficace addestrare correttamente il modello, e per questo prima di tutto è necessario formare correttamente i dati di input. A questo scopo ho prima scalato i dati di input per analogia con quello che ho fatto nel mio articolo "The Principle of Superposition and Interference in Financial Instruments" e poi ho spostato la griglia di scalatura in modo che i dati fossero sempre nella stessa gamma dinamica, non importa come il mercato è cambiato, ho abbandonato i metodi di normalizzazione tradizionali, essi distorcono troppo i dati. Nella fase successiva ho cercato di assicurarmi che il vettore in relazione al quale è stato fatto l'addestramento sia completamente coperto dalle variabili di input, in fig. 1. - scarsa sovrapposizione, in Fig. 2. - è molto migliore e, di conseguenza, l'accuratezza dell'addestramento sarà significativamente più alta (la linea nera è il vettore, relativo al quale viene condotto l'addestramento, le altre linee sono i segnali di ingresso).
cioè la normalizzazione standard sulla varianza e non particolarmente adatta... (
Forse, nel coefficiente di razionamento per i dati in entrata aggiungere anche WMA, o semplicemente per peso - dopo tutto, riflette le dinamiche (anche se con un ritardo)
p.s.
1) ma forse "gamma dinamica" è dolorosamente semplice - il punto di intersezione di 2 MA - è importante ottenere i periodi giusti... solo gli OTF guardano a 50 e 200... ma per l'analisi dei bigData periodi di MA più favorevoli possono essere trovati dalla memoria della rete neurale (con altri fattori di accompagnamento)... imho
2) anche se personalmente mi sembra che il "range dinamico" sia quello/quelli periodi in cui il prezzo era ancora normalmente distribuito da Livello a Livello (immagino si possa dire cluster -- ha fatto un mark-up e di nuovo lavorare/classificare per pesi/caratteristiche/memoria già definiti nel mercato in precedenza -- prima dell'arrivo dei nuovi OTF)... ma come sfruttare questa logica nel razionamento degli input - non lo so ancora (tranne che per fare tutte le stesse dy/dx oltre alla sola t-statistica)... È male, naturalmente, che il tester di strategia non seleziona le caratteristiche (indici) da solo, e l'ottimizzazione è possibile solo per quello che gli viene dato (e lontano dalle informazioni di origine pulite)... - Quindi la gente deve andare a ML
Hai una miniera d'oro e non riesci a vedere sotto i piedi
È chiaro che SVM permette la separazione lineare delle dipendenze non lineari (ma la riduzione della dimensionalità deve essere in qualche modo regolata - ha le sue sfumature)... ma prima di tutto l'analisi multivariata (con output di regressione multipla polinomiale) è così così per me, quando tutti i fattori si influenzano a vicenda, e non so come la libreria fa la sua feature_extraction (e ci sono un sacco di sfumature nella statistica) ... E in secondo luogo, per prendere gli iperparametri corretti per SVM in python - hai anche bisogno di conoscere la libreria in qualche modo... molti stanno calpestando qui (la libreria è decente) - fino a quando le sfumature che ho descritto il processo di modellazione con questa libreria non genera un modello over/under/under-trained, over-trained o under-trained...
per capire questa biblioteca, se la vedi per la prima volta, dovrai guardare sotto i tuoi piedi per molto tempo...
la parte "dorata" è discutibile... Sono ancora scettico sul fatto di non essere in grado di tenere le tendenze e saltarne fuori presto a causa del robot... Ma non voglio nemmeno subire dei drawdown quando il robot non ha notato qualcosa... quindi solo un modello statistico di qualità varrebbe il suo peso in oro anche prima di ML... per cercare di aumentare la probabilità di 50/50... imho
O considerare la CDF e scartare i persentili estremi... imho per trovare quella di mezzo... o sfruttarli
probabilità di entrare nelle code della PDF(che è in effetti derivata dalla CDF, cioè la PDF è la differenziazione differenziale f della distribuzione): 1-P(a<=X<=b) , dove [-infinito,a] e [b,+infinito] sono le code della distribuzione