La théorie des flux aléatoires et le FOREX - page 23

 
Prival:

Et concernant l'adéquation, pour toute série temporelle, il est possible de construire un ACF, le plus souvent c'est la base de l'analyse, donc plus tôt dans ce fil, j'ai donné une image de l'ACF obtenu sur le modèle et de l'ACF des cotations réelles, regardez l'apparence, ils ne diffèrent pas.


Cette image est une référence à la question de la stationnarité. Ce sont des graphiques temporels du premier changement de signe de l'ACF de + à - . Cette caractéristique est choisie comme l'un des points particuliers. L'ACF est calculé pour Y - mu, pour la courbe inférieure la régression linéaire est calculée sur l'intervalle hebdomadaire, pour celle du dessus elle est approximativement sur l'intervalle mensuel.

 
lna01:
Image à la question de la stationnarité. Ce sont des graphiques temporels du premier changement de signe de l'ACF de + à - . Cette caractéristique est choisie comme l'un des points particuliers. L'ACF est calculé pour Y - mu, pour la courbe inférieure la régression linéaire est calculée sur l'intervalle hebdomadaire, pour celle du dessus elle est approximativement sur l'intervalle mensuel.
Veuillez montrer ce point sur le graphique ACF, il semble que le premier point d'inflexion soit le passage de - à + (c'est-à-dire que la courbe descend d'abord (-) puis remonte (+) ; ce point définit simplement la fréquence d'oscillation). Les chiffres sont-ils exprimés en heures ? ou l'ACF a-t-il été prénormalisé sur l'axe X par la profondeur d'échantillonnage ? Et si ce n'est pas difficile vos conclusions. Je pense qu'une conclusion évidente est que les oscillations sont toujours présentes, car il y a un point d'inflexion, la fréquence de ces oscillations change ; plus la taille de l'échantillon est petite, plus le taux de changement de la fréquence des oscillations est rapide. Cependant, si je comprends bien ces graphiques
 
Prival:
Veuillez montrer ce point sur le graphique ACF, il semble que le premier point d'inflexion soit le passage de - à + (c'est-à-dire que la courbe descend d'abord (-) puis remonte (+) ; ce point est comment la fréquence d'oscillation). Les chiffres sont-ils exprimés en heures ? ou l'ACF a-t-il été prénormalisé sur l'axe X par la profondeur d'échantillonnage ? Et si ce n'est pas difficile vos conclusions. Je pense qu'une conclusion évidente est que les oscillations sont toujours présentes, car il y a un point d'inflexion, la fréquence de ces oscillations change ; plus la taille de l'échantillon est petite, plus le taux de changement de la fréquence des oscillations est rapide. Cependant, si je comprends bien ces graphiques


Je vous donne une image :

C'est-à-dire que c'est le "mauvais" point singulier, mais il est plus proche :), et, supposément, ses coordonnées sont liées de façon monotone à celles du "bon" point. De plus, il est situé dans une section plus raide de l'ACF, c'est-à-dire qu'il est probablement moins dépendant du bruit - c'est-à-dire qu'il convient mieux comme premier critère brut (c'est-à-dire rapide) de stationnarité, je pense.

Les chiffres représentent le temps en heures. Il n'est pas difficile de normaliser, mais ce qui est intéressant, c'est de savoir exactement combien de temps nous pouvons "tirer" un modèle stationnaire sur le marché.

Jusqu'à présent, la seule conclusion est qu'avant de coder un filtre de Kalman, nous devrions apprendre à obtenir des données initiales avec des périodes de stationnarité suffisamment fréquentes et suffisamment longues. Et voici d'autres réflexions. Le fait que la situation de stationnarité dépende de la longueur de l'échantillon peut simplement signifier que son choix est une question de principe et que le succès en dépend. Ou, dans une formulation plus générale, sur la façon dont les données sont préparées.

Si par certitude on choisit comme modèle un système d'équations différentielles linéaires (EDL), alors par la structure de l'ACF on semble pouvoir juger de la quantité d'EDL nécessaire pour une description plus ou moins adéquate. Choisir des coefficients (et tenter de décrire leur dérive) est une question de technique. Cependant, après avoir contemplé pendant un certain temps le comportement de l'ACF dans le temps (dans le visualiseur), nous commençons à comprendre que le nombre de DT dans le modèle doit être variable. Ou, tout aussi bien, les modèles devront être modifiés à la volée.

À propos, ce fragment particulier de l'image a été choisi parce qu'il contient à la fois un tracé de stationnarité bien défini (ce qui est assez rare) et (apparemment) une catastrophe (colonne).

P.S. Deux catastrophes est plus exact - il y a deux sauts.

 

Merci, j'ai tout compris, et toutes les pensées (idées) semblent converger.

D'après mon analyse et votre image de l'ACF, on peut l'approximer par l'expression suivante (p. 184-185. Fichier Tikhonov V.I. joint)

J'ai réussi à résoudre un problème en faisant en sorte que ACF tire des paramètres (omega, alpha et N) de celui-ci.

Je joins le fichier, uniquement en matcad, je ne me souviens pas si vous l'avez. Sinon, je posterai les formules ici avec les explications nécessaires.

Mes réflexions sur la recherche.

Il semble erroné de rechercher la stationnarité sur les barres horaires, car il s'agit d'une transformation non linéaire du flux d'entrée (je considère le flux de tics comme l'entrée). Si nous prenons des barres (pour réduire le volume des informations analysées), alors le flux d'entrée devrait être divisé en barres non pas par le temps mais par le nombre de ticks dans une barre (Volume=const) IMHO. Jusqu'à présent, j'ai choisi les minutes comme étant le moindre des deux maux. Je ne prends pas en compte les horizons temporels supérieurs car plus l'horizon temporel est grand, plus la non-linéarité introduite est importante. Si j'ai besoin d'une semaine, je règle simplement la longueur de l'échantillonnage analysé, en choisissant 7200.

Veillez à suivre le même schéma, lorsque Y est la vitesse (Close[i]-Close[i+1])/(time[i]-time[i+1]), à minutes vous pouvez omettre la division. Le mathématicien l'appelle, mais je préfère l'appeler vitesse.

Naturellement aussi, mais pour l'accélération (dérivée seconde).

C'est à ce moment-là, comme vous l'avez dit à juste titre, que nous pourrons décider du montant du DU. Seulement, ces modèles ont aussi des paramètres et si l'on veut rester dans le linéaire (filtrage de Kalman), alors pour chaque valeur de paramètre (disons omega) un filtre différent est nécessaire. J'ai écrit précédemment que pour résoudre ce problème de front (pour rechercher la solution optimale "pour tous les cas") nous avons besoin de 10-20 - à la limite un nombre infini de filtres. Pour s'éloigner de cela, je pense à l'avenir de faire les paramètres inconnus (oméga, alpha) dans le système de contrôle, c'est à dire passer à un filtrage non linéaire (à première vue, voir votre graphique du bas il ya une zone où ces paramètres obéissent à une loi linéaire est agréable). Stratonovich recommande de le faire, et cette méthode permet souvent de résoudre de tels problèmes avec une précision acceptable pour la pratique.

Comme je comprends le terme "précision acceptable pour la pratique", si je parviens à synthétiser 2-3 filtres non linéaires qui fonctionnent 2 jours par semaine, cela me suffit. Le modèle fonctionne - je négocie ; sinon, le modèle ne fonctionne pas (je ne peux pas prévoir), alors je ne négocie pas. Puis je continue à l'étudier et j'introduis un autre modèle qui fonctionne avec le premier pendant 2,5 jours et non 2 jours, etc.

Candidat, veuillez développer un peu plus les points "catastrophiques". Intéressé par le moment, qui est plus tôt la catastrophe ou le déclenchement du "mauvais" point "point catastrophe :-)".

Dossiers :
fjvokxt_yd.zip  1186 kb
teor_model.zip  31 kb
 
Prival:

J'ai pu résoudre le problème en faisant sortir les paramètres (omega, alpha et N) de l'ACF.

Merci pour les fichiers, je vais y jeter un œil. Je n'ai toujours pas matcad cependant. Et comment êtes-vous censé combattre les ACF plus difficiles, par exemple ceux-là ?

En fait, je suis gêné de l'admettre, mais il semble que je ne sois qu'un phylon sur le forum :). J'ai mon plan de travail, hélas, à partir de la fin de l'été, il n'a pratiquement pas été modifié :). Fondamentalement, ce plan a quelque chose en commun avec une tâche de définition de la longueur d'échantillonnage optimale, en conséquence, en cas de succès, il peut également être utilisé pour le filtre de Kalman. C'est malheureusement les fruits de ce thème très intéressant qui vont encore dans les placards, sur le stockage :).

Il est erroné de rechercher la stationnarité sur les barres horaires.

Je préfère également les minuties, c'est juste que les capacités de compression des graphiques horizontaux de MT ne sont pas suffisantes.

Veillez à utiliser le même schéma, lorsque Y est (Close[i]-Close[i+1])/(time[i]-time[i+1]), la division en minutes peut être omise. Les mathématiciens appellent ça, mais j'aime appeler ça de la vitesse.

Naturellement aussi, mais pour l'accélération (dérivée seconde).

C'est à ce moment-là, comme vous l'avez dit à juste titre, que nous pourrons décider du montant du DU. Seulement, ces modèles ont aussi des paramètres et si l'on veut rester dans le linéaire (filtrage de Kalman), alors pour chaque valeur de paramètre (disons omega) un filtre différent est nécessaire. J'ai écrit plus tôt que pour résoudre ce problème de front (pour rechercher la solution optimale "pour tous les cas") nous avons besoin de 10-20 - à la limite un nombre infini de filtres. Pour s'en sortir, je pense à l'avenir faire intervenir les paramètres inconnus (oméga, alpha) dans le système de contrôle, c'est à dire passer à un filtrage non linéaire (à première vue, voir votre graphique du bas, il y a une zone où ces paramètres obéissent à une loi linéaire c'est bien). Stratonovich recommande de le faire, et cette méthode permet souvent de résoudre de tels problèmes avec une précision acceptable pour la pratique.

Comme je comprends le terme "précision acceptable pour la pratique", si je parviens à synthétiser 2-3 filtres non linéaires qui fonctionnent 2 jours par semaine, cela me suffit. Le modèle fonctionne - je négocie ; sinon, le modèle ne fonctionne pas (je ne peux pas prévoir), alors je ne négocie pas. Ensuite, je continue à l'étudier et j'introduis un autre modèle qui fonctionne avec le premier pendant 2,5 jours et non 2 jours, etc.

Je pense que l'idée est plus ou moins comprise.

Candidat, veuillez développer un peu plus les points "catastrophiques". Intéressé par le moment, qui est plus tôt la catastrophe ou le déclenchement du "mauvais" point "point catastrophe :-)".


J'ai bien peur qu'il ne s'agisse pas d'une catastrophe de marché, mais d'une catastrophe de modèle, et directement liée à la longueur d'échantillon fixe pour la régression. L'effet du saut des paramètres de régression glissante a été remarqué depuis le développement du Grand Thème du Forum Parallèle (GTPF) :). Bien qu'elle soit bien sûr liée aux processus du marché en fin de compte. Mais je donne quand même une photo. Je peux aussi vous envoyer l'indicateur.

 

Candidat

Un peu plus de détails, avec des flèches où se trouvent toutes ces catastrophes. Je pense simplement que c'est très important, si le paramètre est déclenché plus tôt, c'est une opportunité de prédire le début d'une catastrophe de prix. S'il le fait plus tôt, alors l'échantillon long peut être traité. C'est la deuxième fois que vous faites référence à un forum parallèle, si vous pouvez me donner un lien. (J'ai peut-être manqué quelque chose). Vous ne pouvez pas tout relire.

 
Prival:

Candidat

Un peu plus de détails, avec des flèches où se trouvent toutes ces catastrophes. Je pense simplement que c'est très important, si le paramètre est déclenché plus tôt, il est possible de prévoir la catastrophe des prix. Si oui plus tôt, alors l'échantillonnage long peut être traité. C'est la deuxième fois que vous faites référence à un forum parallèle, si vous pouvez me donner le lien. (J'ai peut-être manqué quelque chose). Vous ne pouvez pas tout relire.


J'ai remplacé l'image dans un post précédent. Quant au FMPT (The Great Parallel Forum Thread :), il est assez difficile de le relire, à la fois à cause de sa longueur et parce qu'il est extrêmement jonché.
 

Je pourrais ajouter à propos de la prédiction. J'ai également remarqué qu'une double "catastrophe" précède une flambée des prix, et j'en ai examiné quelques autres. Ces événements sont assez rares et, hélas, la flambée des prix qui les suit ne se produit pas toujours.

 
lna01:

Je pourrais ajouter à propos de la prédiction. J'ai également remarqué qu'une double "catastrophe" précède une flambée des prix, et j'en ai examiné quelques autres. Ces événements sont assez rares et, hélas, la flambée des prix qui les suit ne se produit pas toujours.


Il faudrait l'examiner sur des périodes plus courtes (en général, plus en détail), les points sont très intéressants. Et pas nécessairement un double saut du "point délicat ACF". Pour une raison quelconque, je pense qu'un changement unique (net) indique également un changement dans le processus.
 
lna01:

Je n'arrive toujours pas à comprendre comment vous pouvez travailler avec un indicateur qui affiche toujours un à l'extrémité droite du graphique ? Quel est son potentiel prédictif - même s'il est calculé selon une formule parfaitement correcte ? Je m'excuse si cette question est idiote...