L'apprendimento automatico nel trading: teoria, modelli, pratica e algo-trading - pagina 2786
Ti stai perdendo delle opportunità di trading:
- App di trading gratuite
- Oltre 8.000 segnali per il copy trading
- Notizie economiche per esplorare i mercati finanziari
Registrazione
Accedi
Accetti la politica del sito e le condizioni d’uso
Se non hai un account, registrati
In un processo di Markov, non c'è dipendenza dal valore del momento.
Cosa vuol dire che il punto in cui ci si trova nella matrice di transizione, si parte da lì.
Cioè, se i fattori sono pochi, il processo è controllato, ma dopo un certo numero di fattori iniziano a verificarsi collisioni e risultati probabilistici della somma dei fattori. Inoltre, i fattori possono avere e hanno connessioni e ci sono feedback. Ma il processo di Markov non ha questi collegamenti.
Descrive variabili casuali - come può avere connessioni (logicamente, sono assenti).... ma se esiste una matrice, significa che possiamo trovare/descrivere/perdere/formare connessioni in essa... imho per descrivere lo stato sotto l'influenza degli eventi... tutte le stesse statistiche, ma anche un passo avanti a seconda dello stato (e proprio questo passo stabilisce la dinamica della serie statistica di ogni momento)... solo che sono anche confuso dalla "casualità" nella formulazione dell'intera Markovia (ma è a questo che servono le statistiche e la dim_reduction).
descrive variabili casuali - dove ha connessioni (logicamente, non ce ne sono)... ma poiché esiste una matrice, significa che è possibile trovare/descrivere/perdere/formare connessioni in essa... imho per descrivere lo stato sotto l'influenza degli eventi... tutte le stesse statistiche, ma anche un passo avanti a seconda dello stato (e proprio questo passo stabilisce la dinamica della serie statistica di ogni momento)... solo che sono anche confuso dalla "casualità" nella formulazione dell'intera Markovia (ma è a questo che servono le statistiche e la dim_reduction).
Ho dato la mia comprensione della fisica dei processi casuali, per me si tratta di 2 varianti, nel mercato la prima è quando il numero di fattori dà un risultato probabilistico, e la seconda è il risultato di un processo a bassa frequenza rispetto a uno ad alta frequenza, in cui i processi non sono interconnessi.
E filosoficamente capisco che se non c'è connessione con i valori passati di una funzione o di un processo, il processo sarà casuale. Ma nel mondo reale di solito non è così.
Nel mercato, se assumiamo che gli stati stazionari prolungati siano l'effetto di alcune forze inerziali provenienti da fattori forti, o da fattori forti prolungati, allora è possibile distinguerli nel rumore, e non si tratta di uno stato Markov. L'approccio di distinguere il modello dal modello SB è abbastanza logico. Ma cosa farne, logicamente, se c'è uno stato non-Markov, allora è possibile indagare, e se non ci sono differenze, allora non ha senso indagare.))))))
Cosa vuol dire che non lo fai, dove ti trovi nella matrice di transizione, è lì che vai.
È chiaro, ma è un processo casuale, perché non c'è alcun legame tra il valore attuale e quello precedente.)))))) E quindi, sì, nella matrice ci sono dei valori)))))
Le SGC sono costruite sul principio della minimizzazione di questa relazione quasi a zero).
I metodi di normalizzazione di Vladimir Perervenko sono semplicemente strani - log2(x + 1) è ancora comprensibile,
ma l'apparizione di una simile bestia - per sbarazzarsi dell'asimmetria tramite sin(2*pi*x)- non è del tutto chiara: logicamente aggiunge una componente ciclica, e la domanda è: perché tale componente? O la rimuove? (se rimuoviamo i cicli, ci rimane il rumore)...
e tanh(x) in generale sembra un'imitazione dell'elaborazione della rete neurale per comprimere una serie... o solo un'altra semplice deformazione della riga? - È improbabile che elimini la ciclicità, e non è chiaro quale....
In ogni caso, è chiaro che serie storiche= trend+ciclo+rumore...
... ma forse sta cercando di sbarazzarsi della ciclicità con tali trasformazioni (e non è noto come sin(2*pi*x) sia un modo universale?) ... In qualche modo ho pensato all'inizio che questo è una sorta di tentativo di inserire un elemento d/df nella serie - per rimuovere la ciclicità (incorporando questa lunghezza nei fattori di segno stessi? per eliminare la ciclicità (incorporando la lunghezza d'onda negli stessi fattori di segno), per ottenere una distribuzione normale, cioè una velocità e un'accelerazione da inserire nella composizione dei segni ...? ma la manipolazione con sin sembra essere una distorsione ingiustificata della serie sotto l'ampiezza scalata in base al valore del segno - non ho incontrato una cosa del genere nell'elaborazione statistica .... Perché non cos? Perché non tanh? -- Solo modi diversi di curvare? Perché?
Forse l'autore può spiegare l'essenza di questa particolare trigonometria (lo scopo di rimuovere la distribuzione obliqua tramite il log è già chiaro) - ma quali sono le giustificazioni/assunzioni per l'uso di sin? Perché non cos? e perché questa curvatura?(accelererà il cambiamento di segno?-piuttosto che anche solo smussarlo a volte)
ti sono stati dati dei vettori, hai scritto un articolo e sei stato trattato come un gingillo....
qualcuno potrebbe scrivere quanto seriamente si dovrebbero/potrebbero prendere tali trasformazioni e perché? (a parte il desiderio di eliminare l'asimmetria con il log, credo che ln sia la più comune).
Vladimir Perervenko ha solo alcuni strani modi di convertire alla normalità - log2(x + 1) può ancora essere cercato di capire,
ma l'aspetto di una simile bestia - sbarazzarsi dell'asimmetria tramite sin(2*pi*x)- non è del tutto chiaro cosa faccia - logicamente aggiunge una componente ciclica, e la domanda è: perché tale componente? o la rimuove? (se rimuoviamo i cicli, ci rimane il rumore)....
e tanh(x) in generale sembra un'imitazione dell'elaborazione della rete neurale per comprimere una serie... o solo un'altra semplice deformazione della riga? - è improbabile che si eliminino i cicli, e non è chiaro quale....
In ogni caso, è chiaro che serie storiche= trend+ciclo+rumore...
... ma forse sta cercando di sbarazzarsi della ciclicità con tali trasformazioni (e non è noto come sin(2*pi*x) sia un modo universale?) ... In qualche modo ho pensato all'inizio che questo è una sorta di tentativo di inserire un elemento d/df nella serie - per rimuovere la ciclicità (incorporando questa lunghezza nei fattori di segno stessi? per eliminare la ciclicità (incorporando la lunghezza d'onda negli stessi fattori di segno), per ottenere una distribuzione normale, cioè una velocità e un'accelerazione da inserire nella composizione dei segni ...? ma la manipolazione con sin sembra essere una distorsione ingiustificata della serie sotto l'ampiezza scalata in base al valore del segno - non ho incontrato una cosa simile nell'elaborazione statistica .... Perché non cos? Perché non tanh? -- Sono solo modi diversi di deformare? A che scopo?
Forse l'autore può spiegare l'essenza di questa particolare trigonometria (lo scopo di rimuovere la distribuzione obliqua tramite il log è già chiaro) - ma quali sono le giustificazioni/assunzioni per l'uso di sin? Perché non cos? e perché questa curvatura?(accelererà il cambiamento di segno?-piuttosto che anche solo smussarlo a volte)
qualcuno potrebbe scrivere quanto seriamente si dovrebbero/potrebbero prendere queste trasformazioni e perché? (a parte il tentativo di eliminare l'asimmetria con il log, credo che ln sia la più comune).
Anch'io non ho mai capito queste trasformazioni, ma molto probabilmente si tratta solo della scelta della trasformazione migliore tra le altre. E non c'è alcuna logica nella scelta, di solito basata su test.
Le forme dei filtri e delle antenne in UHF non sono state calcolate in origine. Sì, e il calcolo poi nella vita reale è stato finalizzato con un file)))))
Neanch'io ho mai capito queste conversioni, ma molto probabilmente si tratta solo di una scelta dell'opinione di chi sceglie la migliore conversione tra le altre. E di solito non c'è logica nella scelta, di solito basata su test.
Le forme dei filtri e delle antenne in UHF non erano calcolate in origine. Sì, e il calcolo nella vita reale era finalizzato con un file)))))
È sufficiente confrontare gli istogrammi del campione prima e dopo la conversione. Se quello finale è più vicino alla forma target (distribuzione normale o uniforme, per esempio), allora la trasformazione è abbastanza adatta). Invece di disegnare istogrammi, si possono considerare test di conformità all'obiettivo (per la normalità o l'uniformità, rispettivamente).
Non si tratta di piatti di forma parabolica? Secondo la formula)
Vladimir Perervenko ha solo alcuni strani modi di convertire alla normalità - log2(x + 1) può ancora essere cercato di capire,
ma l'aspetto di una simile bestia - sbarazzarsi dell'asimmetria tramite sin(2*pi*x)- non è del tutto chiaro cosa faccia - logicamente aggiunge una componente ciclica, e la domanda è, perché tale componente? o la rimuove? (se rimuoviamo i cicli, ci rimane il rumore)....
e tanh(x) in generale sembra un'imitazione dell'elaborazione della rete neurale per comprimere una serie... o solo un'altra semplice deformazione della riga? - è improbabile che si eliminino i cicli, e non è chiaro quale....
In ogni caso, è chiaro che serie storiche= trend+ciclo+rumore...
... ma forse sta cercando di sbarazzarsi della ciclicità con tali trasformazioni (e non è noto come sin(2*pi*x) sia un modo universale?) ... In qualche modo ho pensato all'inizio che questo è una sorta di tentativo di inserire un elemento d/df nella serie - per rimuovere la ciclicità (incorporando questa lunghezza nei fattori di segno stessi? per eliminare la ciclicità (incorporando la lunghezza d'onda negli stessi fattori di segno), per ottenere una distribuzione normale, cioè una velocità e un'accelerazione da inserire nella composizione dei segni ...? ma la manipolazione con sin sembra essere una distorsione ingiustificata della serie sotto l'ampiezza scalata in base al valore del segno - non ho incontrato una cosa simile nell'elaborazione statistica .... Perché non cos? Perché non tanh? -- Sono solo modi diversi di deformare? A che scopo?
Forse l'autore può spiegare l'essenza di questa particolare trigonometria (lo scopo di rimuovere la distribuzione obliqua tramite il log è già chiaro) - ma quali sono le giustificazioni/assunzioni per l'uso di sin? Perché non cos? e perché questa curvatura?(accelererà il cambiamento di segno?-piuttosto che anche solo smussarlo a volte)
qualcuno potrebbe scrivere quanto seriamente si dovrebbero/potrebbero prendere queste trasformazioni e perché? (a parte il tentativo di eliminare l'asimmetria con il log, credo che di solito sia ln, dopo tutto).
Finché siamo al livello di ragionamento delle funzioni trigonometriche o di qualsiasi altra cosa a questo livello, non c'è giustificazione per una ragione - è impossibile fare una giustificazione, perché lo scopo di tali giustificazioni NON è dichiarato e il criterio per raggiungere lo scopo è sconosciuto.
E l'obiettivo del MO è l'unico: ridurre l'errore di adattamento, ovvero ridurre l'errore di previsione del modello di apprendimento automatico. E con la restrizione che l'errore di previsione NON debba cambiare molto in futuro.
Il principale ostacolo al raggiungimento di questo obiettivo è la non stazionarietà delle serie finanziarie.
La formula timeseries= trend+ciclo+rumore non è del tutto accurata. È più accurata e molto ben elaborata nei modelli di tipo GARCH, che sono più di un centinaio, ma nessuno di essi risolve il problema nella sua forma finale, ossia come modellare la non stazionarietà nel modo più accurato possibile.
Se specifichiamo un obiettivo e un criterio per raggiungerlo, allora i metodi per trattare la non stazionarietà non sono affatto importanti: è il risultato che conta. In ogni caso, è chiaro che quanto più la serie iniziale non stazionaria può essere trasformata in stazionaria, tanto minore sarà l'errore di previsione del modello MO e, soprattutto, tanto minori saranno le fluttuazioni di questo errore.
Vladimir Perervenko lo capisce perfettamente, ma i suoi articoli sono più educativi che pratici: si limita a mostrare i problemi e a fornire gli strumenti per la loro soluzione, in modo molto completo e sistematico, senza lacune visibili. E la scelta dei problemi e degli strumenti per la loro soluzione è tutta subordinata all'obiettivo: ridurre l'errore di previsione.
Aleksey Vyazmikin ha posto una domanda simile all'autore nei commenti - ha ottenuto un link al thread di discussione - il link è stato distrutto! L'autore Vladimir Perervenko si è nascosto? )
Mi è venuta in mente l'idea di un albero decisionale locale. Si tratta di un analogo di KNN o di una regressione locale (potenzialmente adatta anche alla non stazionarietà). L'idea è quella di dividere in caselle solo la casella che contiene il punto di interesse (fino ad almeno un determinato numero di punti K) e di non preoccuparsi del resto delle caselle. Potrebbe essere migliore di KNN o della regressione locale se i confini tra le classi sono netti e il punto è vicino a tale confine.
Mi chiedo se questo approccio abbia senso.