Ce ne sont pas les affaires de Mashka !

 

Voici une pensée qui m'excite.

Prenons l'assistant le plus courant avec une fenêtre de calcul de la moyenne N. Faisons-la passer par la série temporelle (RT) en avant et en arrière, éliminant ainsi le retard de groupe et de phase et obtenant une courbe lissée idéale, dont la dérivée première montre de manière optimale les points d'entrée et de sortie... mais uniquement sur des données historiques.


Il est lié à l'inévitable surimpression sur le bord droit des données. Plus nous nous éloignons dans l'histoire, moins cet effet nous affecte. Dans la limite, elle peut être négligée à une distance N du bord d'attaque. Nous avons donc pour tâche de prédire cette dérivée pour N barres à venir (fig. de gauche).

Nous pouvons le faire d'une autre manière. Effectuons seulement un passage direct du masque, nous obtiendrons un lissage standard, auquel nous nous sommes tous habitués il y a longtemps, avec N/2 lag (fig. de droite). La tâche peut être définie comme la prédiction des valeurs dérivées pour N/2 barres à venir. D'ailleurs, dans la figure de gauche comme dans celle de droite, N est choisi de manière à ce que la largeur de bande du filtre passe-bas soit à peu près la même - 100 barres pour un schéma à deux passages (à gauche) et 200 barres pour un parcours direct (à droite). Nous devrons donc faire des prévisions égales pour le même nombre de barres à l'avance, mais la dérivée est plus lisse pour le schéma à double passage, ce qui signifie une meilleure précision des prévisions.

Je dois dire tout de suite que toutes les tentatives de prévision par les méthodes "habituelles" ne donneront pas de résultat positif, dès que nous nous rapprochons de l'horizon des événements (N/2 ou N), la précision de la prévision diminue rapidement pour atteindre zéro à l'horizon même. Telle est la propriété fondamentale de BP...

J'ai donc pensé, et si pour une BP donnée je construisais un éventail de mashups en une seule passe avec l'étape 1 commençant avec N=2 ou même 1 et allant jusqu'à 1000 par exemple. Il est clair que l'informativité de swipes adjacents n'est pas très différente, alors construisons une fonction d'autocorrélation qui montre la "similarité" de swipes adjacents (ou leurs dérivés). Comme on pouvait s'y attendre, un certain nombre d'écouvillons consécutifs sont fortement corrélés (Figure gauche) :

Comme l'informativité des instruments corrélés est faible, nous allons affiner la série d'écouvillons et ne garder que ceux dont le coefficient de corrélation entre eux ne dépasse pas 20%. Il n'en reste que trois - avec une fenêtre de calcul de la moyenne de 6, 80 et 300 mesures. Nous prenons maintenant la somme pondérée des valeurs des barres de retard et l'assimilons à la dérivée idéale (la ligne rouge épaisse de la figure de droite) : dMA=w1*dMA1+w2*dMA2+w3*dMA3.

Nous devons construire trois équations de ce type pour trois barres consécutives sur le côté droit de l'historique moins N/2 (pour éviter le bavardage), les résoudre en fonction des poids w et calculer la valeur de dMA sur le côté droit de BP. Nous obtenons ainsi la valeur de prédiction, qui indique la direction attendue de BP.


On obtient une sorte d'analyse non-harmonique :-)

 
Où y a-t-il une photo de ce mashka synthétique ? :)
 

Je ne l'ai pas encore ! J'ai donc pensé vous demander votre avis pour savoir si je dois ou non m'impliquer dans tout cela. Qui y pense ?

 
Neutron:

Je ne l'ai pas encore ! J'ai donc pensé vous demander votre avis pour savoir si je dois ou non m'impliquer dans tout cela. Qui y pense ?

Pouvons-nous continuer avec la fête.

 

(J'ai laissé un message pour vous dans un fil voisin, j'espère que vous l'avez vu :)


ALL SIMPLER !!!!! Mon idée était assez simple - et les mains n'ont pas vraiment fait le tour de la question. Il n'y a pas besoin d'exécuter quoi que ce soit ici et là. Une approximation parfaite de la composante basse fréquence serait :

[1/chambre*(SOMME historique par fenêtre)+ 1/chambre*(SOMME , valeurs futures par fenêtre)/2


Tout se résume donc à prédire une moyenne d'une fenêtre fixe. Et il peut être prédit par des méthodes d'autocorrélation. Je suis sûr à 100% qu'il fonctionnera de manière beaucoup plus fiable et précise. Pensez-y comme à un filtre adaptatif miniature.



Il peut être amélioré à l'"esprit"

 

à Vinin

Donnez-nous votre avis - il y aura une suite !


à grasn

Bonjour Sergey !

Bien sûr que oui. Ce sont elles (vos considérations) qui m'ont conduit à cette idée de synthèse non-harmonique. Malheureusement, tous mes efforts pour prédire par des méthodes d'autocorrélation se sont écrasés à l'horizon des événements. Nous avons besoin de méthodes de corrélation non linéaires avec des éléments d'adaptation.

 
Je verrais bien comment les poids se comportent sur l'histoire. C'est-à-dire que je créerais un indicateur avec trois tampons : w1, w2 et w3.
 
Neutron:

à grasn

Salut, Sergei !

Bien sûr que je l'ai lu. Ce sont elles (vos considérations) qui m'ont conduit à cette idée de fusion non-harmonique. Malheureusement, tous mes efforts pour prédire par des méthodes d'autocorrélation se sont écrasés sur l'horizon des événements. Ce qu'il faut ici, ce sont des méthodes de corrélation non linéaires avec des éléments d'adaptation.


Non, non, non, non. Si vous reconstruisez la série temporelle par la moyenne prédite, cela ne fonctionnera pas, les erreurs sont importantes. Nous n'avons pas besoin de cela, nous devons évaluer les extrémités locales de la "courbe BF idéale" prédite, qui sont en fait des zones pivots !!!!. Vous devriez être moins exigeant :o)

 
lna01:
Je verrais bien comment les poids se comportent sur l'histoire. C'est-à-dire que je créerais un indicateur avec trois tampons : w1, w2 et w3.

Pas de problème. Seulement, qu'est-ce que cela va nous donner ? Il est clair qu'ils se comporteront régulièrement avec une période de fluctuation d'une plus petite échelle, puisqu'ils sont la solution d'une équation cubique.

 
grasn:

Non, non, non, non. Si vous reconstruisez la série temporelle par la moyenne prédite, cela ne fonctionnera pas, les erreurs sont importantes. Nous n'avons pas besoin de cela, nous avons besoin d'estimer les extrémités locales de la "courbe LF idéale" prédite, et celles-ci sont en fait des zones pivots !!!!. Il faut être moins exigeant :o)

Ici, je ne comprends pas !

Il n'y a pas de relations stables là-bas.

 
Neutron:
grasn:

Non, non, non, non. Si vous reconstruisez la série temporelle par la moyenne prédite, cela ne fonctionnera pas, les erreurs sont importantes. Nous n'avons pas besoin de cela, nous avons besoin d'estimer les extrémités locales de la "courbe LF idéale" prédite, et celles-ci sont en fait des zones pivots !!!!. Il faut être moins exigeant :o)

Ici, je ne comprends pas !

Il n'y a pas de relations stables là-bas.


Et je n'ai pas non plus compris votre analyse non-harmonique. Qui est le dérivé parfait et d'où vient-il ? Si vous pouvez expliquer l'essentiel de votre analyse étape par étape, je vous en serais reconnaissant (je pense que je ne suis pas le seul).


En attendant, je vais fouiller dans Matkadec et d'ici quelques jours ou plus tôt (je suis à fond dans les statistiques), je vous donnerai une description détaillée de mon idée :o)



PS: peut-être que leur intégration donnera quelque chose d'intéressant :o)