Statistiques de dépendance entre guillemets (théorie de l'information, corrélation et autres méthodes de sélection de caractéristiques) - page 23

 
joo:
... et dans quelle combinaison ?"
C'est plus compliqué que ça. Beaucoup plus compliqué et coûteux en termes de calcul. En d'autres termes, il est facile de sélectionner un ensemble de variables informatives, mais il est plus difficile d'éliminer les variables redondantes (mutuellement informatives) et de sélectionner des paires, des triples..... Les variables dont les combinaisons influencent la variable cible sont exponentiellement plus difficiles, d'abord en raison de l'énorme quantité de calculs.
 
alexeymosc:
C'est plus compliqué que ça. Beaucoup plus compliqué et coûteux en termes de calcul. Disons-le autrement : il est facile de sélectionner un ensemble de variables informatives, il est plus difficile de supprimer les variables redondantes (mutuellement informatives) ; et il est plus difficile de sélectionner des paires, des triples..... de variables dont les combinaisons influencent la variable cible est exponentiellement plus difficile, d'abord à cause de l'énorme quantité de calculs.
et comment la recherche est-elle effectuée, pas par force brute ?
 

Il est très étrange que la distribution résultante pour GARCH(1,1) semble normale. Plus précisément, c'est tout simplement impossible. L'une des marques de fabrique de ces modèles est la queue de poisson et l'élongation - juste pour imiter les distributions réelles du marché. Apparemment, le graphique résultant n'est tout simplement pas représentatif ou la période de comptabilisation de la volatilité (P=1, Q=1) n'est pas assez longue, c'est pourquoi il montre des signes d'amincissement.

Mais une autre chose est intéressante :

Sur le graphique calculé, la trace de l'influence de GARCH(1,1) est clairement visible, à savoir, sur la première jambe il y a une perturbation significative de la "relation" et de l'incertitude sur toutes les autres données. C'est exactement ce qui devrait se passer, car le modèle ne se souvient que de la volatilité de la barre précédente. Je suis sûr que les trois premiers retards seront clairement indiqués pour GARCH(3,3), les vingt premiers retards pour GARCH(20, 20), etc.

Je vais essayer de me battre avec MathLab et obtenir les données GARCH(20, 20). Si leur analyse montre une corrélation de 20 périodes, la question est claire - la formule montre une corrélation de la volatilité.

 
C-4:


Je vais essayer de me battre avec MathLab et d'obtenir des données GARCH(20, 20). Si leur analyse montre une corrélation pour 20 périodes, la question est claire - la formule montre une corrélation de la volatilité.

Ce n'est pas le cas. Je sais déjà que la formule tient compte de CELA... Regardez le graphique en 5 minutes. La relation évidente du vol aux décalages les plus proches et au décalage 288 est un cycle quotidien. Mais allez-y si vous voulez. Je vais vérifier.

Nous essayons de trouver d'"autres dépendances", car l'information mutuelle absorbe toutes les dépendances possibles. Nous devons être capables de les séparer.

 

EURUSD H1.

I sur la série originale (même discrétisation par 5 quantiles) :

Somme des informations mutuelles : 3.57 Bits ! La valeur la plus élevée de tous les horizons temporels testés.

Maintenant, prenons les rendements ^ 2, débarrassons-nous du signe, et étudions la volatilité :

On dirait. Mais la somme de I = 5,35 Bits.

C'est logique ! Après tout, l'incertitude sur la série de volatilité nette est plus faible.

Et que se passe-t-il si vous soustrayez l'un de l'autre ?

 
alexeymosc: Voici à quoi ressemble une matrice de fréquence (le premier décalage est la variable cible) pour des données aléatoires avec des caractéristiques de 5 minutes.

Bon sang. Vos matrices m'ont donné l'impression d'une percée et d'un logit. J'ai regardé sur le moteur de recherche, et ce qu'il en est... puis j'ai réalisé que c'était juste une probabilité et son logarithme.

P.S. Lu-u-u-u-dee, est-ce que tout est clair pour vous dans ces tableaux ? Si vous ne comprenez pas, demandez, demandez. Pour les questions stupides, nous ne battrons pas (parce que je suis un peu dummy feel myself ici).

Pour une fois, il y a un sujet décent, qui n'est presque pas d'humour, sarcastique et axé sur le poisson immédiat au lieu de la canne à pêche - mais il y a un processus très intéressant de recherche de la vérité...

Où peut-on trouver de telles questions en économétrie?

 
anonymous:


Il est vrai que le marché est plus complexe. Mais ce n'est pas une raison pour ignorer le phénomène observé.

Je ne fais pas de recherches scientifiques sur le marché. L'objectif spécifique est de faire une prédiction avec une longueur d'avance.

A propos des tests : l'hétéroscédasticité est un fait généralement accepté dans la littérature.

C'est un slogan qui dit avoir vu quelque chose quelque part. La lecture de ces publications ne me rapporte pas plus d'argent.

Pour être précis, les tests d'hétéroscédasticité ne concernent pas seulement les résidus, qui sont calculés à l'aide de différentes formules, mais les résidus du modèle, ce qui est la norme dans les progiciels d'économétrie.

Parfois, des tests d'hétéroscédasticité sont appliqués aux prédicteurs et aux erreurs du modèle.

Si par "erreurs de modèle" vous entendez le résidu du modèle = la différence entre la citation originale et le modèle, alors je suis d'accord. Et les tests d'hétéroscédasticité sont appliqués non pas parfois, mais toujours. S'il existe une hétéroscédasticité dans le résidu du modèle, elle est alors modélisée, et le but ultime du modèle agrégé est d'obtenir un résidu stationnaire (mo et variance sont une constante). Si le mo et/ou la variance sont des variables - alors la prédiction n'est pas possible, car l'erreur de prédiction devient une variable.

 
Mathemat:?

Pour une fois qu'il y a un sujet décent...

Je tiens à souligner que tous les messages qui remettaient en question la décence du sujet ont été ignorés.

 
ne génèrent pas de SB basés sur GARCH. Vous devez prendre une série réelle et générer un SB basé sur une volatilité réelle. J'ai posté un script ici https://forum.mql4.com/ru/41986/page10 qui remplace l'historique hors ligne d'un instrument réel par un SB utilisant le tick volumétrique. Un tel SB reproduira presque à 100% le vol réel. GARCH, etc., ils ne tiennent pas compte de nombreuses nuances telles que les différents cycles de vagues et bien d'autres. S'il y a une différence entre cette ligne de SB et la ligne dont elle est issue, elle est plus intéressante :)
 
alexeymosc:

EURUSD H1.

I sur la série originale (même discrétisation par 5 quantiles) :

Est-ce que je me souviens bien que la donnée brute ici est le pourcentage du module incrémental ?

Mais si c'est le cas, il s'agit bien de la même volatilité (c'est-à-dire de sa fonction monotone et univoque), nous pouvons nous attendre à ce que tous les effets liés à la volatilité apparaissent ici aussi, bien que sous une forme quelque peu filtrée. Et comme les effets de la volatilité semblent l'emporter de loin sur tous les autres phénomènes de marché, la perspective de voir "autre chose" en arrière-plan semble plutôt problématique. Je le répète, je pense qu'il est plus prometteur d'essayer d'exclure systématiquement les effets connus mais "inutiles" des données brutes.

Au fait, Alexey(Mathemat), avez-vous aussi les données brutes sous forme de modules ?