Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
construire une banque de filtres passe-bande liens vers le travail de l'auteur :
https://www.mql4.com/go?http://belisa.org.by/pdf/Publ/Art7_i17.pdf
https://www.mql4.com/go?http://belisa.org.by/pdf/Publ/Art4_i18.pdf
décrit de façon suffisamment détaillée avec des exemples d'utilisation possible, tout semblait très logique, mais l'auteur lui-même, comme je le pense maintenant, a quelque peu mal calculé sans dire un mot sur le retard, parce que si dans le filtre de fréquence la plus basse la fréquence centrale du filtre est de l'ordre de 1/MN1 alors le retard même dans quelques échantillons sera très grand, donc je pense que la détermination lors du choix d'un filtre devrait être le retard minimum
Le retard n'a rien à voir avec ça. Prenez une banque de filtres passe-bande avec un retard et tracez la cotation du prix par la somme des sorties de ces filtres. Tout devrait se dérouler sans décalage artificiel sur l'axe du temps. L'essentiel est que les filtres se chevauchent comme Vadim l'a décrit. En fait, ce domaine des mathématiques de la décomposition des signaux est bien étudié et appelé transformée en ondelettes discrètes. Commencez à le lire ici et parcourez ensuite les livres :
https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D1%81%D0%BA%D1%80%D0%B5%D1%82%D0%BD%D0%BE%D0%B5_%D0%B2%D0%B5%D0%B9%D0%B2%D0%BB%D0%B5%D1%82-%D0%BF%D1%80%D0%B5%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5
construire une banque de filtres passe-bande liens vers le travail de l'auteur :
https://www.mql4.com/go?http://belisa.org.by/pdf/Publ/Art7_i17.pdf
https://www.mql4.com/go?http://belisa.org.by/pdf/Publ/Art4_i18.pdf
Il est décrit en détail avec des exemples d'utilisation possible, tout semblait très logique, mais l'auteur lui-même, comme je le pense maintenant, a quelque peu menti sans dire un mot sur le retard, parce que si dans le filtre de fréquence la plus basse la fréquence centrale du filtre est d'environ 1/MN1 alors le retard même dans plusieurs échantillons sera très grand, donc je pense que la détermination du choix du filtre devrait être le retard minimal
Vous n'avez pas répondu à la question. Que ferez-vous avec les filtres ?
J'ai supposé dans mon travail que toute ligne lisse peut être extrapolée avec une distorsion minimale de la manière la plus primitive sur de petites distances. Autrement dit, le problème se résume à obtenir une collection de lignes lisses et sinusoïdales après décomposition. Puis, extrapolez-les dans le futur et empilez-les là. Question... Qu'est-ce que la phase a à voir avec ça ? Elle est compensée. Peu importe la phase et le délai.
Ce travail est encore incomplet.
======================
Pour résoudre ce problème assez rapidement avec des filtres FIR, il faudrait des milliers d'ordinateurs comme le vôtre.
Le retard n'a rien à voir avec ça. On prend une banque de filtres passe-bande retardés et on répartit l'offre de prix sur la somme des sorties de ces filtres. Tout devrait s'arranger sans qu'il y ait de décalage artificiel sur l'axe du temps. L'essentiel est que les filtres se chevauchent comme Vadim l'a décrit. En fait, ce domaine des mathématiques de la décomposition des signaux est bien étudié et appelé transformée en ondelettes discrètes. Commencez à le lire ici, puis parcourez les livres :
https://ru.wikipedia.org/wiki/%D0%94%D0%B8%D1%81%D0%BA%D1%80%D0%B5%D1%82%D0%BD%D0%BE%D0%B5_%D0%B2%D0%B5%D0%B9%D0%B2%D0%BB%D0%B5%D1%82-%D0%BF%D1%80%D0%B5%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5
Merci. Je vais m'en occuper.
Vous n'avez pas répondu à la question. Que ferez-vous avec les filtres ?
J'ai supposé dans mon travail que toute ligne lisse peut être extrapolée avec une distorsion minimale de la manière la plus primitive sur de petites distances. Autrement dit, le problème se résume à obtenir une collection de lignes lisses et sinusoïdales après décomposition. Puis, extrapolez-les dans le futur et empilez-les là. Question... Qu'est-ce que la phase a à voir avec ça ? Elle est compensée. Peu importe la phase et le délai.
Ce travail est encore incomplet.
======================
Pour résoudre ce problème assez rapidement avec des filtres FIR, il faudrait des milliers d'ordinateurs comme le vôtre.
Merci, je vais m'en occuper.
J'aime rechercher des schémas, c'est-à-dire que disons que la disposition mutuelle des lignes de décomposition correspond maintenant à celle qui a été observée de nombreuses fois auparavant et que le prix de cette position a souvent augmenté, nous agissons en conséquence, quant à l'utilisation de tel ou tel type de filtres dans votre problème, je pense que personne ne le sait mieux que vous.
Il y a quelques mois, j'ai créé un réseau neuronal à une seule couche avec des décompositions d'un devis comme entrées, comme F2, F4, F8, ... F512, où F représente la sortie d'un filtre et le nombre sa période. C'est-à-dire que le prix a été filtré par un dérivé binaire de 9 filtres comme décrit dans vos articles cités. J'ai entraîné le réseau avec le testeur de génétique intégré. Mais elle n'a pas eu de succès. Le filet stocke les modèles passés et descend lentement sur un modèle à venir. À mon avis, le trading basé sur de tels filtres est identique au trading basé sur les MACD. Les DICT ne suffisent pas à eux seuls à déterminer les points d'entrée. Il est nécessaire de prendre en compte toutes les autres informations contenues dans une cotation : l'historique du mouvement des prix, les niveaux de soutien et de résistance, la volatilité, l'heure de la journée, le jour de la semaine, etc. Il est très difficile de transmettre toutes ces informations aux entrées du réseau. Nous devons donc chercher des modèles avec nos yeux et les simplifier. Au lieu d'une banque de 9 filtres, vous pouvez n'avoir besoin que de 2 ou 3 filtres et oublier la décomposition en tant que telle.
Vous pouvez, bien sûr, le faire d'une autre manière. Décomposez précisément le prix en N filtres lisses et, au lieu d'identifier des modèles, extrapolez chacun de ces filtres dans le futur et voyez comment leur somme (prix) se comporte comme le suggère Vadim. Mais je ne crois pas à ça. Jugez-en par vous-même : nous ne connaissons pas le prix futur et il peut monter ou descendre avec la même probabilité. Avec ces deux résultats différents, il devrait y avoir deux extrapolations différentes des prix passés. N'est-ce pas ? Mais quand Vadim parle d'extrapolation, il veut dire une extrapolation pour chaque filtre, pas plusieurs. Cela crée un paradoxe. Pour décrire des avenirs différents, il faut des extrapolations différentes. Mais nous n'en choisissons qu'un seul. Pourquoi pensons-nous que cette option d'extrapolation particulière est correcte ?
Il y a quelques mois, j'ai créé un réseau neuronal à une couche avec des décompositions d'un devis comme entrées, comme F2, F4, F8, ... F512, où F représente la sortie d'un filtre et le nombre sa période. C'est-à-dire que le prix a été filtré par un dérivé binaire de 9 filtres comme décrit dans vos articles cités. J'ai entraîné le réseau avec le testeur de génétique intégré. Mais elle n'a pas eu de succès. Le filet mémorise les modèles passés et descend lentement sur un modèle à venir. À mon avis, le trading basé sur de tels filtres est identique au trading basé sur les MACD. Les DICT ne suffisent pas à eux seuls à déterminer les points d'entrée. Il est nécessaire de prendre en compte toutes les autres informations contenues dans une cotation : l'historique du mouvement des prix, les niveaux de soutien et de résistance, la volatilité, l'heure de la journée, le jour de la semaine, etc. Il est très difficile de transmettre toutes ces informations aux entrées du réseau. Nous devons donc chercher des modèles avec nos yeux et les simplifier. Au lieu d'une banque de 9 filtres, vous pouvez n'avoir besoin que de 2 ou 3 filtres et oublier la décomposition en tant que telle.
Vous pouvez, bien sûr, le faire d'une autre manière. Décomposez précisément le prix en N filtres lisses et, au lieu d'identifier des modèles, extrapolez chacun de ces filtres dans le futur et voyez comment leur somme (prix) se comporte comme le suggère Vadim. Mais je ne crois pas à ça. Jugez-en par vous-même : nous ne connaissons pas le prix futur et il peut monter ou descendre avec la même probabilité. Avec ces deux résultats différents, il devrait y avoir deux extrapolations différentes des prix passés. N'est-ce pas ? Mais quand Vadim parle d'extrapolation, il veut dire une extrapolation pour chaque filtre, pas plusieurs. Cela crée un paradoxe. Pour décrire des avenirs différents, il faut des extrapolations différentes. Mais nous n'en choisissons qu'un seul. Pourquoi pensons-nous que cette option d'extrapolation particulière est correcte ?
L'idée de décomposer un problème en ses composantes est universelle en science et est largement utilisée.
Pour cette idée, il existe une contrainte bien connue appelée "réversibilité" sans laquelle la décomposition ne peut être reconnue comme telle - c'est la somme des parties en lesquelles le problème est décomposé qui doit donner ce problème. Dans le cas des harmoniques, cela signifie que la somme des harmoniques en lesquelles le quotient est décomposé doit donner le quotient original.
Autant que je me souvienne, Fourier. Tout signal peut être représenté de manière absolument précise si le nombre d'harmoniques est égal au nombre d'observations. C'est la condition de la réversibilité. Sinon, il y a une erreur dans la représentation du signal original. En DSP, cela n'a pas beaucoup d'importance car le signal est extrait et le bruit est éliminé.
Dans un cotier il n'y a pas de signal. Et il est généralement admis que l'analyse du résidu de la décomposition du quotient initial est importante. C'est le résidu qui dicte la prévision future, et non l'ensemble des courbes lisses que nous avons extraites du quotient.
ne nécessitent aucun effort mental .....
Nous pourrions, bien sûr, procéder différemment. Réaliser une décomposition précise du prix en N filtres lisses et, au lieu d'identifier des modèles, extrapoler chacun de ces filtres dans le futur et voir comment leur somme (le prix) se comporte comme le suggère Vadim. Mais je ne crois pas à ça. Jugez-en par vous-même : nous ne connaissons pas le prix futur et il peut monter ou descendre avec la même probabilité. Avec ces deux résultats différents, il devrait y avoir deux extrapolations différentes des prix passés. N'est-ce pas ? Mais quand Vadim parle d'extrapolation, il veut dire une extrapolation pour chaque filtre, pas plusieurs. Cela crée un paradoxe. Pour décrire des avenirs différents, il faut des extrapolations différentes. Et nous n'en choisissons qu'un seul. Pourquoi pensons-nous que cette option d'extrapolation particulière est correcte ?
L'idée de décomposer un problème en ses composantes est universelle en science et est largement utilisée.
Pour cette idée, il existe une contrainte bien connue, appelée "réversibilité", sans laquelle la décomposition ne peut être reconnue comme telle - c'est la somme des parties dans lesquelles le problème est décomposé qui doit donner ce problème. Dans le cas des harmoniques, cela signifie que la somme des harmoniques en lesquelles le quotient est décomposé doit donner le quotient original.
Autant que je me souvienne, Fourier. Tout signal peut être représenté avec une précision absolue si le nombre d'harmoniques est égal au nombre d'observations. C'est la condition de la réversibilité. Sinon, il y a une erreur dans la représentation du signal original. En DSP, cela n'a pas beaucoup d'importance car le signal est extrait et le bruit est éliminé.
Dans un cotier il n'y a pas de signal. Et il est généralement admis que l'analyse du résidu de la décomposition du quotient initial est importante. C 'est le résidu qui dicte les prévisions futures, et non l'ensemble des courbes lisses que nous avons extraites du quotient.
L'un ne contredit pas l'autre. J'ai la série originale restaurée.
Ce dernier point est très vrai pour l'extrapolation. L'extrapolation elle-même, bien que très précise, n'est pas absolue. Si nous considérons qu'il y a beaucoup de ces lignes (peut-être plusieurs dizaines de milliers), l'erreur accumulée affectera également la prévision. Donc, Vladimir, il n'y a pas de paradoxe ici.
J'ai sorti Matcad et voici ce que j'ai obtenu après avoir appliqué l'algorithme :
était LPF est devenu LPF
FF est maintenant FF.
Le résultat de l'application des filtres originaux sur p4
le résultat des filtres modifiés ci-dessous est simplement la somme du signal des sorties des filtres (ligne rouge) sans aucun décalage
Merci à tous, le sujet peut être clos