Statistiche di dipendenza nelle citazioni (teoria dell'informazione, correlazione e altri metodi di selezione delle caratteristiche) - pagina 23

 
joo:
... e in quale combinazione?"
È più complicato di così. Molto più complicato e costoso dal punto di vista computazionale. Mettiamola così: selezionare un insieme di variabili informative è facile, rimuovere le variabili ridondanti (reciprocamente informative) è più difficile; e selezionare coppie, triple.... variabili le cui combinazioni influenzano la variabile obiettivo è esponenzialmente più difficile, in primo luogo, a causa dell'enorme quantità di calcolo.
 
alexeymosc:
È più complicato di così. Molto più complicato e costoso dal punto di vista computazionale. Mettiamola così: è facile selezionare un insieme di variabili informative, è più difficile rimuovere le variabili ridondanti (reciprocamente informative); ed è più difficile selezionare coppie, triple.... di variabili le cui combinazioni influenzano la variabile obiettivo è esponenzialmente più difficile, in primo luogo, a causa dei calcoli enormi.
e come viene effettuata la ricerca, non con la forza bruta?
 

È molto strano che la distribuzione risultante per GARCH(1,1) sembri normale. Più precisamente, semplicemente non può essere. Un marchio di fabbrica di tali modelli è la coda grassa e l'allungamento - proprio per imitare le reali distribuzioni di mercato. Apparentemente, il grafico risultante non è semplicemente rappresentativo o il periodo di contabilità della volatilità (P=1, Q=1) non è abbastanza lungo ed è per questo che mostra segni di magrezza.

Ma un'altra cosa è interessante:

Sul grafico calcolato si vede chiaramente la traccia dell'influenza GARCH(1,1), cioè sulla prima gamba c'è una significativa perturbazione della "relazione" e incertezza su tutti gli altri dati. Questo è esattamente come dovrebbe essere, perché il modello ricorda solo la volatilità della barra precedente. Sono sicuro che i primi tre ritardi saranno chiaramente contrassegnati per GARCH(3,3), i primi venti ritardi per GARCH(20, 20), ecc.

Cercherò di combattere con MathLab e ottenere i dati GARCH(20, 20). Se la loro analisi mostra la correlazione di 20 periodi, la questione è chiara - la formula mostra la correlazione della volatilità.

 
C-4:


Cercherò di combattere con MathLab e di ottenere dati GARCH(20, 20). Se la loro analisi mostrerà la correlazione per 20 periodi, la questione è chiara - la formula mostra la correlazione della volatilità.

Non è così. So già che la formula tiene conto di questo... Dai un'occhiata al grafico a 5 minuti. L'ovvia relazione di vol ai lag più vicini e al lag 288 è un ciclo giornaliero. Vai avanti se vuoi però. Lo controllerò.

Stiamo cercando di trovare "altre dipendenze", perché l'informazione reciproca assorbe tutte le possibili dipendenze. Dobbiamo essere in grado di separarli.

 

EURUSD H1.

I sulla serie originale (stessa discretizzazione per 5 quantili):

Somma delle informazioni reciproche: 3.57 Bit! Il valore più alto di tutti i timeframe testati.

Ora prendiamo i rendimenti ^ 2, eliminiamo il segno e studiamo la volatilità:

Sembra. Ma la somma di I = 5,35 bit.

Ha senso! Dopo tutto, l'incertezza sulla serie della volatilità netta è minore.

E cosa succede se si sottrae uno dall'altro?

 
alexeymosc: Questo è l'aspetto di una matrice di frequenza (il 1° ritardo è la variabile obiettivo) per dati casuali con caratteristiche di 5 minuti.

Maledizione. Le vostre matrici mi hanno dato l'impressione di una svolta e di un logit. L'ho cercato sul motore di ricerca, e di cosa si tratta... Poi ho capito che si trattava solo di probabilità e del suo logaritmo.

P.S. Lu-u-u-u-dee, ti è tutto chiaro in queste tabelle? Se non capisci - chiedi, chiedi. Per le domande stupide, non batteremo (perché sono un po' tonto a sentirmi qui).

Per una volta c'è un argomento decente, che è quasi senza umorismo, sprezzante e concentrarsi sul pesce immediato invece di canna da pesca - ma c'è un processo molto interessante di ricerca della verità...

Dove si possono trovare tali domande in econometria?

 
anonymous:


È vero, il mercato è più complesso. Ma questa non è una ragione per ignorare il fenomeno osservato

Non faccio ricerche scientifiche sul mercato. L'obiettivo specifico è quello di fare una previsione un passo avanti.

A proposito dei test: l'eteroscedasticità è un fatto generalmente accettato in letteratura

È uno slogan che dice di aver visto qualcosa da qualche parte. Leggere queste pubblicazioni non mi fa guadagnare più soldi.

Per essere precisi, i test di eteroscedasticità per l'eteroscedasticità non sono solo per i residui, che sono calcolati con formule diverse, ma per i residui del modello, che è lo standard nei pacchetti di econometria.

A volte i test di eteroscedasticità sono applicati ai predittori e agli errori del modello.

Se per "errori del modello" intendi il residuo del modello = la differenza tra la citazione originale e il modello, allora sono d'accordo. E i test di eteroscedasticità sono applicati non a volte, ma sempre. Se c'è eteroscedasticità nel residuo del modello, allora viene modellata, e l'obiettivo finale del modello aggregato è quello di ottenere un residuo stazionario (mo e varianza sono una costante). Se mo e/o varianza sono variabili - allora la predizione non è possibile, perché l'errore di predizione diventa una variabile.

 
Mathemat:?

Per una volta c'è un argomento decente...

Vorrei far notare che tutti i post che mettevano in dubbio la decenza dell'argomento sono stati ignorati.

 
non generano SB basati su GARCH. Devi prendere una serie reale e generare una SB basata sulla volatilità reale. Ho postato uno script qui https://forum.mql4.com/ru/41986/page10 che sostituisce la storia offline di uno strumento reale con un SB utilizzando tick volumetrici. Un tale SB replicherà quasi al 100% il vol reale. GARCH, ecc. non tengono conto di molte sfumature come i diversi cicli d'onda e molti altri. Se c'è qualche differenza tra questa riga di SB e la riga da cui è generata, è più interessante :)
 
alexeymosc:

EURUSD H1.

I sulla serie originale (stessa discretizzazione per 5 quantili):

Ricordo bene che i dati grezzi qui sono il modulo incrementale percentuale?

Ma se è così, è di fatto la stessa volatilità (cioè la sua funzione monotona e non ambigua), possiamo aspettarci che tutti gli effetti legati alla volatilità appariranno anche qui, anche se in una forma un po' filtrata. E poiché gli effetti della volatilità sembrano superare di gran lunga tutti gli altri fenomeni di mercato, la prospettiva di vedere "qualcos'altro" sul loro sfondo sembra piuttosto problematica. Ripeto, penso che sia più promettente cercare di escludere coerentemente effetti noti ma "inutili" dai dati grezzi.

A proposito, Alexey(Mathemat), hai anche i dati grezzi come moduli?