Filtres numériques adaptatifs - page 4

 

Privé

Je suis désolé, je n'ai pas été prudent dans mes remarques. Personnellement, je n'ai jamais pensé à exprimer des doutes sur vos compétences en matière de DSP. Je pense qu'il en va de même pour grasn (j'espère que grasn me pardonnera de "signer" en son nom). Il s'agit de l'idée même et de la méthodologie de la recherche. Rien de personnel. Tous les auteurs qui "creusent activement les méthodes mathématiques" sur ce forum, je les traite de manière strictement positive, compte tenu du caractère unique de cette communauté. Et au vu des perspectives qu'elle (la communauté) a. Mais je ne peux pas accepter votre suggestion, car je ne crois absolument pas aux polynômes en tant qu'outil ayant une sorte de "pouvoir prédictif". Nous parlons d'intervalles de temps de moins d'un jour, et vous voulez exploiter votre idée précisément à de petits intervalles. Je ne vois tout simplement pas la raison qui obligera le polynôme - en fait, absolument adapté à la fonction de signal (selon un certain critère), à faire une prévision du comportement des prix. Parce que la prédiction sera toujours de 50-50. Cela est dû à la fois aux processus qui se produisent sur le "marché" et à la forme de la représentation du signal, qui, par essence, fausse complètement l'image. Si vous voulez utiliser le DSP dans le trading, vous êtes le bienvenu, mais préparez d'abord les données adéquates pour le DSP. Le "signal" lui-même est certes présent dans le prix, mais... Mais le niveau de ce signal (comme Mathemat semble l'avoir correctement souligné) est plusieurs fois inférieur au "bruit" (bien qu'il n'y ait pas de "bruit" sur le "marché"). À cela s'ajoute la non-stationnarité du signal lui-même. Par conséquent, presque aucune des méthodes traditionnelles ne fonctionne. Je ne pense pas que ce soit parce que la théorie DSP est fausse - bien sûr qu'elle l'est, c'est juste que le signal ici est complètement différent. Un signal dans lequel une grande partie de l'information est tout simplement perdue. Et paradoxalement, un grand nombre d'informations sont tout simplement inutiles. Vous avez dit que vous êtes un militaire, alors considérez comme un fait que tous vos appareils sont encombrés d'interférences, derrière lesquelles vous ne pouvez pas voir le signal de l'avion ennemi. Et ces interférences sont d'une très grande qualité. Mais si vous sortez et regardez le ciel, vous verrez immédiatement tout. Mais viser et tirer à la hanche n'est pas la meilleure solution. :)

Et merci pour le cadeau, je vais certainement trouver le temps de m'y familiariser.

 
Je suggère de passer à une autre tâche : nous devons convertir la représentation graphique habituelle (basée sur des barres avec des intervalles de temps astronomiques égaux) en une représentation avec le moins de catastrophes possible (de préférence avec des retours p.d.f. stationnaires). Ceci, d'ailleurs, peut être l'un des défis de la préparation adéquate des données pour le DSP, comme l'a mentionné NorthernWind. Les catastrophes (surtout les micro-catastrophes à l'intérieur des appartements) brisent pratiquement tous les indirecteurs traditionnels connus. La conversion, d'ailleurs, ne doit pas être mutuellement univoque (de nombreux indirecteurs ne sont pas des opérations mutuellement univoques sur les données, et cela ne nous dérange pas).

S'il existe des arguments valables à son encontre, joignez-vous aux critiques.
 
NorthernWind:

Privé

Je suis désolé, je n'ai pas été prudent dans mes remarques. Personnellement, je n'ai jamais pensé à exprimer des doutes sur vos compétences en matière de DSP. Je pense qu'il en va de même pour grasn (j'espère que grasn me pardonnera de "signer" en son nom). Il s'agit de l'idée même et de la méthodologie de la recherche. Rien de personnel. Tous les auteurs qui "creusent activement les méthodes mathématiques" sur ce forum, je les traite de manière strictement positive, compte tenu du caractère unique de cette communauté. Et au vu des perspectives qu'elle (la communauté) a. Mais je ne peux pas accepter votre suggestion, car je ne crois absolument pas aux polynômes en tant qu'outil ayant une sorte de "pouvoir prédictif". Nous parlons d'intervalles de temps de moins d'un jour, et vous voulez exploiter votre idée précisément à de petits intervalles. Je ne vois tout simplement pas la raison qui obligera le polynôme - en fait, absolument adapté à la fonction de signal (selon un certain critère), à faire une prévision du comportement des prix. Parce que la prédiction sera toujours de 50-50. Cela est dû à la fois aux processus qui se produisent sur le "marché" et à la forme de représentation du signal, qui en fait déforme complètement l'image. Vous voulez utiliser le DSP dans le trading - allez-y, mais préparez d'abord les données adéquates pour le DSP. Le "signal" lui-même est certainement présent dans le prix, mais... Mais le niveau de ce signal (comme Mathemat semble l'avoir correctement souligné) est plusieurs fois inférieur au "bruit" (bien qu'il n'y ait pas de "bruit" sur le "marché"). À cela s'ajoute la non-stationnarité du signal lui-même. Par conséquent, presque aucune des méthodes traditionnelles ne fonctionne. Je ne pense pas que ce soit parce que la théorie DSP est fausse - bien sûr qu'elle l'est, c'est juste que le signal ici est complètement différent. Un signal dans lequel une grande partie de l'information est tout simplement perdue. Et paradoxalement, un grand nombre d'informations sont tout simplement inutiles. Vous avez dit que vous êtes un militaire, alors considérez comme un fait que tous vos appareils sont encombrés d'interférences, derrière lesquelles vous ne pouvez pas voir le signal de l'avion ennemi. Et ces interférences sont d'une très grande qualité. Mais si vous sortez et regardez le ciel, vous verrez immédiatement tout. Mais viser et tirer à la hanche n'est pas la meilleure solution. :)

Merci pour le cadeau, je vais certainement trouver le temps de le regarder.

Avez-vous déjà pensé que les lignes de support (résistance) sont des polynômes du premier degré (équation de la ligne droite) y(x)=a*x+b ? Lorsque le prix rebondit sur le niveau d'une certaine résistance forte ou la correction commence et à ce point la courbe peut être décrite par le polynôme du second degré y(x)=c*x^2+a*x+b. Pour certaines oscillations stables dans le canal, vous pouvez utiliser MNC pour trouver un polynôme de degré supérieur. C'est-à-dire qu'il est nécessaire de choisir le degré d'un polynôme selon un certain critère (apprendre à l'ordinateur à le faire, comme le fait un humain) + de nombreuses personnes sont déjà arrivées à la conclusion que si elles savaient (connaissent) quand commencer à former, disons, PriceCannel (profondeur d'échantillonnage), elles peuvent construire un TS assez bon.

Mais l'idée proposée l'a, nous pouvons fixer le degré polynomial + la profondeur N, disons une semaine, et l'algorithme lui-même choisira d'utiliser tout l'échantillon N ou seulement sa partie, il peut également choisir n'importe quelle quantité de données (chiffres) pour l'analyse des 2 derniers chiffres à N et sélectionner un polynôme. Et disons que l'écart est la variance maximale, donc l'algorithme devrait sélectionner les 2 derniers points et seulement une ligne droite passant par 2 points, lag = 0. Quelque chose comme ça.

C'est une idée si simple, il y en a beaucoup, peut-être que quelque chose de bon en sortira. J'ai essayé de le rendre aussi clair que possible pour montrer à ceux qui veulent construire quelque chose d'adaptatif, comment le faire, sans recourir à des termes complexes. Et à propos de ce"mais préparez d'abord les données adéquates pour le DSP", oui en effet je le fais, parce que je crois que l'axe des X est aussi un nombre aléatoire et qu'il ne faut pas l'oublier. Sur l'axe Y, nous avons déjà beaucoup inventé, mais sur l'axe X, nous construisons encore des barres il y a 100 ans (avec un intervalle constant). J'ai écrit à ce sujet ici ('Tick builders. Optimisation. DDE en VB (VBA)'), même Renata m'a fait un cadeau. Je réfléchis maintenant à la manière de le préparer correctement pour le DSP :-) + aussi tout le temps à se demander quel est le signal (composante utile, ce qui fait bouger cette courbe), et s'il y a du bruit ici.

P.S. Et le fait d'argumenter et d'être en désaccord est une bonne chose. Dans les disputes (correctes), la vérité naît parfois. Et avec vous, je suis prêt à discuter et à ne pas seulement offrir des cadeaux sous forme de livres, mais à les remettre. J'aurais aussi versé du brandy mais je ne peux pas l'attacher :-).

 
Mathemat:
Je suggère de passer à une autre tâche : nous devons convertir la représentation graphique habituelle (basée sur des barres avec des intervalles de temps astronomiques égaux) en une représentation avec le moins de catastrophes possible (de préférence avec des retours p.d.f. stationnaires). Ceci, d'ailleurs, peut être l'un des défis de la préparation adéquate des données pour le DSP, comme l'a mentionné NorthernWind. Les catastrophes (en particulier les micro-catastrophes au sein des appartements) brisent pratiquement tous les indirecteurs traditionnels connus. La conversion, d'ailleurs, ne doit pas être mutuellement univoque (de nombreux indirecteurs ne sont pas des opérations mutuellement univoques sur les données, et cela ne nous dérange pas).

Si vous avez un argument fondé contre elle, joignez-vous aux critiques.

Au moment où j'écrivais, Mathemat était déjà devenu télépathe :-). J'y suis favorable. Je suggère que nous commencions par minimiser les "catastrophes", pour ensuite y faire face. Et pas seulement les indicateurs se cassent, le bon vieux Fourier s'envole, et comment le manger si on ne sait pas quel taux d'échantillonnage il est trop difficile.
 
Mathemat:
Je suggère de passer à un problème différent : nous devons convertir la représentation graphique habituelle (basée sur des barres avec des intervalles de temps astronomiques égaux) en une représentation avec le moins de catastrophes possible (de préférence avec des rendements p.d.f. stationnaires). Ceci, d'ailleurs, peut être l'un des défis de la préparation adéquate des données pour le DSP, comme l'a mentionné NorthernWind. Les catastrophes (en particulier les micro-catastrophes au sein des appartements) brisent pratiquement tous les indirecteurs traditionnels connus. La conversion, d'ailleurs, ne doit pas être mutuellement univoque (de nombreux indirecteurs ne sont pas des opérations mutuellement univoques sur les données, et cela ne nous dérange pas).

S'il y a des arguments valables contre elle, joignez-vous aux critiques.

Ici, il n'y a pas si longtemps, il y a eu une rafle de m0thematistes-maximalistes impatients, dans l'un des fils de discussion voisins. Bien que la conversation avec eux ne se soit pas déroulée très bien, malgré cela je voudrais dire qu'ils parlent très correctement, pratiquement "pensent mes pensées". La chose la plus importante qui a été dite et à laquelle je demande à toutes les parties intéressées de prêter attention. Vous devez travailler sur le marché réel et non sur une maison de courtage Forex. Vous disposerez alors d'informations non seulement sur le prix, mais aussi sur les volumes, les intérêts, les enjeux, le flux de cotation, etc. Sans aucun doute, l'échange est plus compliqué que le processus consistant à deviner la direction des chiffres sur l'écran dans les sweepstakes DC, mais aussi beaucoup plus proche du concept d'un marché en direct, où le prix est dicté par l'équilibre de l'offre et de la demande et l'humeur des participants. Bien sûr, Quick et ses équivalents ne valent rien par rapport à Metatrader, mais les gens travaillent aussi sur ce système. D'ailleurs, si les méta-citations ne pensent pas à maîtriser ce sordide, leur sort sera le même qu'aujourd'hui.

Ce que je veux dire ici, c'est que vous pouvez creuser très profondément dans les citations de DT, et vous pouvez même trouver quelque chose, mais ce sera plutôt bancal. Je vous demande de bien comprendre, il n'y a aucune critique des cents ou du processus de formation des cents. Ils font tout bien et, pour la plupart (ceux qui sont plus respectables), ne trompent personne. Mais si l'on regarde les données qui arrivent du "marché" au client en passant par les sociétés de courtage, on ne peut s'empêcher de penser que les sociétés de courtage sont des machines à filtrer et à restituer. J'ai déjà dit ce qui se passe si un processus aléatoire est appliqué à un certain processus significatif - le processus résultant sera le même aléatoire.

Afin d'éviter la question "Est-ce que je crois que l'on peut gagner de l'argent avec le commerce de courtage Forex", je dois répondre tout de suite - oui, je pense que c'est possible. Mais pas beaucoup, pas longtemps et pas pour tout le monde. En fait, avec un risque pas très élevé, vous pouvez jouer pendant un jour ou plus, mais le revenu sera, si vous jouez correctement, le même que la variation du prix sur la journée, ce qui n'est pas très élevé.

C'est mon opinion. Pour en revenir au sujet qui nous occupe, la conversion de la carte traditionnelle en une autre, je peux dire que, personnellement, cette conversion m'a aidé dans ma quête. Mais pas beaucoup. Pratiquement, il n'y a pas de choix, de toutes les possibilités que nous avons en main, seul le prix n'est pas clair. Il existe également une notion de taux de change qui correspond en quelque sorte à l'activité des marchés mondiaux, mais le degré de cette correspondance est illusoire et éphémère. Que peut-on en faire ? Tout d'abord, tenez compte de l'histoire jusqu'aux années 2004-2003 uniquement, ne cherchez pas plus loin à savoir si "le marché était différent à l'époque". Considérez chaque semaine/jour séparément. Considérez séparément le passage d'une semaine à l'autre, c'est-à-dire les week-ends. Tenez compte au moins de la période d'activité des principales bourses. Considérer au moins ces quelques nouvelles dans l'année, auxquelles le marché a vraiment réagi. Remplacer l'OHLC comme une relique du passé sombre. Ne considérez pas les extrema locaux (zigzag, kagirenko) comme la vérité finale, ces extrema sont très peu probables. Et ainsi de suite. En pratique, tout cela revient à devoir former ses propres données, dans sa propre représentation, à partir d'un flux initial de ticks (ou de minutes).

Une dernière chose. Notez que je ne dis jamais que je sais toujours tout correctement. Donc là aussi, je peux me tromper.

 

Privé 13.01.2008 03:08

Avez-vous déjà pensé que les lignes de support (résistance) sont des polynômes du premier degré (équation de la ligne droite) y(x)=a*x+b. Et cela peut et semble fonctionner non seulement dans la journée. Lorsque le prix rebondit à l'approche d'un fort niveau de résistance ou, par exemple, lorsqu'une correction a lieu et qu'à ce moment-là la courbe peut être décrite par le polynôme du second degré (parabole) y(x)=c*x^2+a*x+b. Pour certaines oscillations stables dans le canal, vous pouvez utiliser MNC pour trouver un polynôme de degré supérieur. C'est-à-dire qu'il est nécessaire de choisir le degré d'un polynôme selon un certain critère (apprendre à l'ordinateur à le faire, comme le fait un humain) + beaucoup de gens sont déjà arrivés à la conclusion que s'ils savaient (connaissent) quand commencer à construire, disons, PriceCannel (profondeur d'échantillonnage), ils peuvent construire un TS assez bon.

Si nous parlons des stratégies dites de "canal", dont l'essence est d'identifier certaines tendances, même si elles ne sont pas décrites par une simple régression linéaire, mais par des polynômes, alors je crois généralement en elles. De plus, je pense que le marché n'a qu'une seule chose - des tendances dans des canaux ascendants et descendants. Mais les lignes de support/résistance traditionnelles n'ont pas beaucoup de rapport avec eux. Le problème avec ces canaux est qu'ils ne montrent traditionnellement pas beaucoup de résultats sur les données traditionnelles. En tout cas, c'est comme ça que ça s'est passé pour moi. Il y a beaucoup de données qui "empêchent" la construction d'une tendance maximale des prix en utilisant ISC. Le plus souvent, nous avons une tendance

de changements dans le caractère du "bruit".

Mais l'idée suggérée le contient, nous pouvons fixer le degré polynomial + la profondeur N pour une semaine, et l'algorithme décidera d'utiliser tout l'échantillon N ou seulement une partie de celui-ci, il peut également choisir n'importe quelle quantité de données (chiffres) pour l'analyse à partir des 2 derniers chiffres jusqu'à N et sélectionner un polynôme. Et disons que l'écart est la variance maximale, donc l'algorithme devrait sélectionner les 2 derniers points et seulement une ligne droite passant par 2 points, lag = 0. Quelque chose comme ça.

Oui, ce sujet a été discuté depuis longtemps, tant sur ce forum que dans le "fil parallèle". C'est pratiquement là que la communauté locale a commencé. Mais il me semble que cela ne s'applique pas vraiment aux filtres adaptatifs traditionnels.

C'est juste une idée de beaucoup d'entre eux, peut-être que quelque chose de bien en sortira. J'ai essayé de montrer aussi clairement que possible à ceux qui veulent construire quelque chose d'adaptatif, comment le faire, sans recourir à des termes complexes. Et à propos de ce"mais d'abord préparer les données adéquates pour le DSP", oui en effet je le fais, parce que je crois que sur l'axe X aussi le nombre aléatoire et il ne devrait pas être oublié. Sur l'axe Y, nous avons déjà beaucoup inventé, mais sur l'axe X, nous construisons encore des barres il y a 100 ans (avec un intervalle constant). J'ai écrit à ce sujet ici ('Tick builders. Optimisation. DDE en VB (VBA)'), même Renata m'a fait un cadeau. Je réfléchis maintenant à la manière de le préparer correctement pour le DSP :-) + aussi tout le temps je me demande quel est le signal (composante utile qui fait bouger cette courbe), et s'il y a du bruit ici.

Les bars sont une tradition basée sur la capacité. En fait, la technologie qui permet de se débarrasser des barres et de passer à d'autres formes de représentation de l'information est apparue il n'y a pas longtemps. depuis des années, alors ne soyons pas trop durs avec eux.

P.S. Et le fait que l'on discute, que l'on ne soit pas d'accord est une bonne chose. Dans les disputes (correctes), la vérité naît parfois. Et avec vous prêt à argumenter et pas seulement des cadeaux sous forme de livres, remettez. J'aurais bien versé du cognac, mais je ne peux pas l'attacher :-).

:)

ZS terrible n'est pas un moteur de forum pratique.

 

à Prival

Prival, je ne vais pas m'excuser pour mon post, il dit tout correctement. Et il n'y a pas un mot là dedans qui dit que vous ne comprenez rien en DSP, mais il y a seulement une attitude envers une proposition particulière de "filtrage adaptatif".

Il me semble qu'en écrivant sur ma proposition et en affirmant qu'il n'y a pas de filtrage adaptatif, grasn a tort.

Je n'ai tort sur aucun point.

Et ne sera pas en mesure de répondre où, quand et pour quelle raison, disons, il est nécessaire d'appliquer une fenêtre de Hemming, et quand son application ne fait que nuire. Quelle est la différence entre le filtre adaptatif de Wiener de Widrow-Hopf filtre lors de l'analyse de leur FFC ou Butterworth filtre de Chebyshev, quand vous avez besoin et peut appliquer le premier filtre, et quand le second.

Ça t'a fait plaisir ? En général, bien sûr, correctement fait, mais à quoi bon ? En plus de plusieurs gigaoctets de déchets électroniques sur les DSP, j'ai sur mon étagère cinq autres livres, que, vous vous en doutez, j'ai lus (bien qu'ils ne soient pas devenus mes recommandations de bureau). Et à vos questions, M. le professeur, bien sûr que je peux y répondre. Prival, j'ai écrit que je suis autodidacte, mais cela ne signifie pas que je suis un idiot complet.

PS1 : J'ai juste servi dans les Forces de Défense Aérienne, donc je peux lire ma position à partir du paragraphe 27 de ma carte militaire (pour la rendre plus solide :o) : "commandant du département des installations de contrôle des missiles anti-aériens". Et je sais plus que bien (comme ils l'écrivent généralement - pas par ouï-dire :o) que nos fameux complexes (et pas seulement les nôtres) ne font pas que tirer vers le bas, ils ne voient même pas vraiment les cibles. Prival, faites attention aux radars forex... et surtout à la fréquence de Nyquist qui régit le monde. :о)

PS2 : Prival, vous n'avez pas beaucoup de chance avec moi - le fait que vous ayez enseigné la DSP ne signifie rien d'autre que du respect pour moi. Et si je vois des bêtises flagrantes, je l'écris, sans tenir compte des positions et des rangs :o)

àNorth Wind

C'est bon à voir !!!! J'ai également pratiquement cessé de participer au forum, bien que je me dispute occasionnellement avec Prival. J'ai une question à vous poser. Je me souviens que vous avez enquêté sur l'utilisation du zigzag, et que vous l'avez décrit comme étant très simple, inventé par quelqu'un près d'un siècle auparavant, voire plus tard. Je veux l'utiliser pour une petite expérience dans une suite de 'Stochastic Resonance' (post grasn 28.10.2007 13:26).
Pourriez-vous la décrire plus en détail ou fournir un lien ? Besoin de tester une réflexion.

 
NorthernWind:

Privé 13.01.2008 03:08

Oui, cela fait longtemps que l'on en parle, tant sur ce forum que dans le "fil parallèle". C'est pratiquement là que la communauté locale a commencé. Mais il me semble que ce n'est pas très pertinent pour les filtres adaptatifs traditionnels.


Il ne faut donc pas trop creuser (bien que le lien dans ce fil ait déjà été vers une conférence sur le DSP). En voici un morceau. Le fait qu'il existe des filtres qui sont construits par la CNA et la profondeur d'échantillonnage est important, pour presque tous les types de filtres, et pour la CNA en particulier.

Pour saisir, vous avez vous-même donné un lien vers ce matériel, et qu'en est-il de ceci (sujet n°3) ? Qu'indépendamment des grades, etc., c'est bien. Et pour le radar, j'ai déjà dénoncé par écrit ce que j'ai écrit ici :-( C'est dommage que je sois resté sans 13, ces imbéciles punissent d'abord et règlent ensuite.

Dossiers :
filtr_mnk.zip  87 kb
 
Prival:
NorthernWind:

Privé 13.01.2008 03:08

Oui, cela fait longtemps que l'on en parle, tant sur ce forum que dans le "fil parallèle". C'est pratiquement là que la communauté locale a commencé. Mais il me semble que ce n'est pas très pertinent pour les filtres adaptatifs traditionnels.


Juste pour que vous ne creusiez pas trop (bien que le lien dans ce fil était déjà sur la conférence DSP). En voici un extrait. Le fait qu'il existe des filtres qui sont construits par les MCO et la profondeur d'échantillonnage est important, pour presque tous les types de filtres, et surtout pour les MCO.

Pour saisir, vous avez vous-même donné un lien vers ce matériel, mais qu'en est-il de ceci (sujet n°3) ? Que indépendamment des rangs etc. c'est bien. Et pour le radar que j'ai déjà signalé par écrit, pour ce que j'ai écrit ici :-( C'est dommage que je sois sans 13, ces imbéciles punissent d'abord et règlent ensuite.

Prival, un moindre carré légèrement différent et un filtre légèrement différent que j'avais au moins en tête. section "Widrow-Hopf Adaptive Least Squares Algorithm" Sujet 11, pas du tout 3
J'ai pu l'attacher.

PS: Prival, je suis un peu confus, est-ce qu'on vous a retiré votre bonus pour avoir écrit le mot "radiolocalisation" sur le forum des traders ?

Dossiers :
dsp11.zip  124 kb
 

grasn 13.01.2008 14:14

C'est bon à voir !!!! J'ai également pratiquement cessé de participer au forum, bien que je me dispute occasionnellement avec Prival. J'ai une question à vous poser. Je me souviens que vous avez mené des recherches sur les zigzags et que vous les avez décrits comme très simples, inventés par quelqu'un avant le siècle dernier ou même plus tard. Je veux l'utiliser pour une petite expérience dans le prolongement de 'Стохастический резонанс' (post grasn 28.10.2007 13:26).
Pourriez-vous le décrire plus en détail ou me donner un lien ? J'ai besoin de vérifier certaines idées.

Heureux de vous voir aussi et heureux d'essayer de répondre aux questions.

Sur le zigzag. Dans le livre dans lequel j'ai vu sa définition pour la première fois, il n'était certainement pas appelé zigzag (je pense à Kendall et Stewart). Il s'agissait de trouver des points d'extrémums locaux du premier ordre. Ils n'ont rien dit de spécial à ce sujet, ils ont juste dit qu'un extremum local est lorsque les points à gauche et à droite du graphique en question sont tous deux plus petits ou plus grands. C'est tout. Elle a également été liée aux extrema locaux du second ordre lorsque les extrema du premier ordre à gauche et à droite sont tous deux plus petits ou plus grands. Seulement dans ce cas, il ne faut pas regarder les extrêmes voisins mais à travers l'un d'eux, car les extrêmes voisins seront de toute façon plus ou moins grands. Le troisième ordre est similaire au deuxième ordre mais il est construit sur la base des extrema du deuxième ordre. Et ainsi de suite. La construction Kagi que vous connaissez bien exploite la même idée, sauf que l'on utilise "moins de H"/"plus de H" au lieu de "moins de H"/"plus de H". C'est tout ce qu'il y a à faire. L'algorithme convient aux points et est mal adapté à l'OHLC, du fait qu'il y a 4 valeurs à un point. Il y a un truc, quand l'un des points est égal au voisin, alors il faut prendre une décision, - les sages anciens ne disent pas laquelle. Personnellement, j'ai simplement converti tous les points voisins ayant des valeurs égales en un. J'ai regardé comment les gens implémentaient les zigzags, c'est très compliqué, des sortes de tableaux temporaires, etc. Pour moi, il suffisait d'utiliser plusieurs variables et une passe. Tout ce dont j'ai besoin est de stocker le dernier extremum identifié (qui peut varier) et l'extremum précédent identifié pour comparaison. C'est-à-dire qu'il analysera trois points : le point actuel, le dernier extremum identifié qui est encore incomplet et l'avant-dernier extremum. Ceci est pour le cas du kaga.

En se référant au lien. Je partage cette phrase : "Le signal, cependant, tient compte de la "structure énergétique" des données d'entrée et est en quelque sorte meilleur qu'un zigzag classique dont la validité des extrema me paraît très douteuse". J'ai moi-même participé à de telles constructions - je cherchais des minima et des maxima par certains calculs de moyenne (fonctions). Malheureusement, le problème s'est avéré un peu plus compliqué. Du moins pour moi. L'idée que ces extrema caractérisent en quelque sorte l'état des humeurs à acheter/vendre pour les changeurs et les négociants est une idée passionnante en soi. Et sur un modèle mathématique simple d'achat et de vente par les foules, c'était exactement la même chose. Mais la réalité est différente et de nombreux extrema marqués de cette manière n'ont rien montré d'utile du tout. Je mets donc l'idée de côté, mais je ne l'oublie pas pour autant. C'est très simple et très clair. Mais c'est moi, d'autres ont peut-être plus de chance.

Privé 13.01.2008 14:24

Vous n'avez donc pas besoin de trop creuser (bien que le lien dans ce fil de discussion était déjà sur une conférence sur le DSP). En voici un morceau. Qu'il y a des filtres qui sont construits par LOC, alors que la profondeur d'échantillonnage est importante pour presque tous les types de filtres, et surtout pour LOC.

Ahh ! Alors c'est de ça qu'on parle ! Je vais vous dire un secret, j'utilise ces mêmes filtres qui sont décrits dans le lien. Seulement, je ne les prends pas comme un "filtre", mais comme une fonction donnant une meilleure estimation en termes de probabilité et d'une loi donnée. Bien que vous puissiez bien sûr les considérer comme des filtres. Malheureusement, ces formules donnent une estimation du point médian. Je les utilise donc comme outil de recherche, mais pas comme outil de prédiction. Franchement, j'aurais bien sûr dû déduire une forme pour estimer le point extrême, mais je suis trop paresseux pour le faire.

A propos, en plus de ce que vous avez sous la main, sur ce sujet, vous pouvez consulter "Statistical Analysis of Time Series" de T. Anderson. Chapitre 3.3.1 "Procédures de lissage".

Et d'ailleurs, il existe un type spécial de splines avec des propriétés similaires, où une courbe est construite sur la base des fonctions les plus simples pour donner une meilleure estimation en termes de MNC.