une stratégie commerciale basée sur la théorie des vagues d'Elliott - page 250

 
Vent du Nord , désolé, plus de bêtises hors sujet ...
 
<br / translate="no ">Northwind désolé, je ne ferai plus de " hors-sujet "...

Allez, c'était une bonne blague pour rire aux éclats,
se tapant sur les genoux et pointant du doigt. :)
 
<br/ translate="no ">Northwind désolé, je ne ferai plus de " hors-sujet "...



Alexei, bonjour !
Alexei, floutons un peu plus sur le sujet, d'accord ? :))
Aidez-moi à insérer une image, l'explication ("Comment insérer des images dans ce forum (explainer)") n'explique pas tout :)
Où en êtes-vous avec votre compte de démonstration ? Quel est déjà le solde ?
En ce qui concerne la description passée du graphique, je voulais dire : Euro, 1 heure
 
L'onde elle-même, se propageant dans un canal "fiable", porte une structure fractale héritée de la source. Et il y a autre chose d'intéressant ...<br/ translate="no">En outre, le calcul des prévisions prend déjà de 3 à 7 heures, en fonction de la structure spécifique de la ligne elle-même... Et c'est beaucoup...

Grash Si vous utilisez des itérations dans votre algorithme, vous pouvez essayer d'utiliser un algorithme génétique. Vous pourrez peut-être accélérer les calculs. Question : (Si ce n'est pas un secret, bien sûr.) Je soupçonne que vous utilisez votre propre méthode de transformation en ondelettes. Ai-je raison ?
 
<br/ translate="no">.
L'onde elle-même, qui se propage dans un canal "fiable", porte une structure fractale héritée de la source. Eh bien, il y a autre chose d'intéressant...
En outre, le calcul des prévisions prend de 3 à 7 heures, selon la structure spécifique de la ligne elle-même... Et c'est beaucoup...

Grash Si vous utilisez des itérations dans votre algorithme, vous pouvez essayer d'utiliser un algorithme génétique. Vous pourrez peut-être accélérer les calculs. Question : (si ce n'est pas un secret, bien sûr.) Je soupçonne que vous utilisez votre propre méthode de transformation en ondelettes. Ai-je raison ?


Vous avez raison, j'utilise des ondelettes, mais tout cela dans le cadre de la théorie, sans amateurisme.

Je travaille sur un algorithme génétique en ce moment.
 
Bonjour à tous !

L'EVA peut être considérée comme un ensemble de modèles d'action à dynamique chaotique.
En outre, l'ensemble est loin d'être parfait. Il existe un système d'analyse plus avancé (et strictement justifié) - Tactica Adversa.

À propos, je ne suis pas satisfait de l'approche stochastique, en principe.
(c'est-à-dire comment se peut-il que je ne sache pas si j'achète à un prix élevé ou bas... ? cela n'a pas de sens ; il y a absolument toujours un "juste prix"... "s.c." par ville, par pays, par monde, avec/sans prise en compte de certains paramètres, mais ça l'est quand même !)

Parmi les idées de déterminisme, je comprends que la dynamique non linéaire est la plus développée et correspond à notre cas...
Attention, question !
existe-t-il des approches plus efficaces ? (réseaux/théorie des jeux/vibrations, etc.)
Les maths, malheureusement, j'ai étudié très récemment, donc je ne sais pas ce qu'on peut appliquer d'autre...



P.S. au fait, un document amusant sur le changement de probabilité dans le chaos que j'ai gratté sur le net... Je le mets là-bas...
http://tovaroved.lv/nonlin/p7-14.pdf
P.P.S. La terminologie est décrite dans le manuel "Dynamic Chaos" de Kuznezov.
 
Bonjour à tous ! Je reviens à ce qui a été imprimé...

Ma zone pivot calculée est représentée par un rectangle et est relativement longue dans le temps. J'avais donc un besoin de mini prévisions, bien sûr, en raison de la "cupidité naturelle" et j'ai commencé à le faire "à mon aise".

Selon mon idée, la mini prévision commence à fonctionner dès qu'elle entre dans une telle zone de retournement. Le seul objectif est de définir au maximum l'extremum local pour une transaction optimale en connaissant la direction prévue du mouvement des prix et les conditions limites : la zone du point de retournement et la position actuelle du prix dans cette zone. L'algorithme d'identification d'un extremum local dans le carré de virage basé sur la mini prévision n'est susceptible d'intéresser personne, sauf moi. Mais la mini-prévision elle-même est une tâche très intéressante.

Le problème est aggravé par le fait que je ne peux pas utiliser une méthode bien testée basée également sur l'indice de Hurst - la taille de l'échantillon est trop petite et c'est paradoxal - la valeur de la prévision est faible.

J'ai décidé d'étudier les différentes variantes une par une et je vous présente ici les résultats de mon premier essai. Donc, je n'utilise pas encore l'autocorrélation et autres astuces. Pour commencer, c'est simple : le processus est représenté comme une superposition de plusieurs fonctions présélectionnées :



J'ai défini les fonctions suivantes comme telles :

(1) Ligne d'espérance mathématique (ligne droite horizontale)
(2) Régression linéaire
(3) Régression parabolique
(4) Harmonique
(5) et quelques autres...

Comme la prévision doit être faite pour un petit nombre de barres à l'avance, je suppose que les modèles de base de chaque fonction se maintiendront approximativement. Par exemple, la période trouvée pour l'harmonique sera toujours préservée pour un certain nombre minimum de mesures. Et la superposition de ces fonctions devrait montrer des valeurs "à peu près correctes". Oui, je sais que ça n'arrivera jamais, mais je n'en ai absolument pas besoin et ça pourrait marcher.

L'algorithme de base
(1) Trouver les coefficients optimaux pour chaque fonction par la méthode des moindres carrés, bien sûr, sauf pour la ligne d'attente mathématique :o)
(2) Trouver les coefficients d'une superposition linéaire de fonctions préalablement définies en utilisant la méthode des moindres carrés

Rappelons que le but d'une telle prédiction n'est pas de jouer dans un canal, mais de trouver un extremum local. Il n'y a qu'un seul paramètre d'entrée, c'est la taille de l'échantillon pour la prédiction. Je suppose que la valeur maximale de la prévision ne devrait pas être supérieure à 1/3 d'un échantillon. J'utilise (H+L)/2 comme entrée pour le calcul.

Nombre total d'échantillons dans l'échantillon de test..............................................................50139
Numéro de la barre actuelle prise au hasard..............................................................................25000
Nombre de barres dans l'échantillon...............................................................................................18

Donc, j'ai choisi la barre actuelle au hasard et voici ce que j'ai obtenu :


Lignes noires en escalier - High et Low correspondants, ligne rouge pleine - fonction de prévision calculée, lignes rouges en pointillé - écart type de la fonction de prévision, ligne bleue en pointillé - données mathématiques

Le fait que nous ayons obtenu une courbe ressemblant à une parabole n'est pas surprenant. ANC calcule les coefficients de manière à ce que la fonction la plus similaire à la source de données "gagne".

Les résultats semblent être encourageants, mais il est probable que la prédiction doit se trouver quelque part. En gardant le paramètre d'entrée (nombre de barres dans l'échantillon), nous nous déplaçons vers 25010 barres, en supposant qu'il a déjà été formé. On voit tout de suite que la prévision ment :


Elle ment beaucoup. Mais ! Après avoir fait une douzaine d'expériences manuellement et écrit un petit test pour l'ensemble de l'échantillon, il était clair pour moi que je pouvais toujours trouver un tel N à partir du compte actuel que la prévision selon ce schéma montrerait de bons résultats. Le test était très simple : pour chaque comptage avec le pas +1, nous avons augmenté l'échantillon pour lequel nous avions fait la prévision et nous avons ensuite vérifié combien de barres futures tombaient dans les limites de RMS. Ce test a confirmé ce qui a souvent été discuté sur ce forum. Je n'ai pas trouvé d'échantillon pour lequel il était impossible de trouver un échantillon et d'effectuer la prévision correcte. Pour l'échantillon 25010, il y avait jusqu'à deux valeurs de ce type N (ajustées, bien sûr) :

14


71


Je réfléchis maintenant sérieusement au critère du nombre d'échantillons. À propos, l'un de ces critères peut être observé "à l'œil nu", si vous regardez attentivement les graphiques. Je suis en train d'y travailler. Mais ce n'est pas suffisant, je dois en trouver d'autres.

Est-ce que ça intéresse quelqu'un, ou tout le monde continue à lire Pastukhov ? :o)))

à Neutron

Sergey, où as-tu disparu ? Je suis tenté d'écrire "ne dormez pas ! !!". :о)))
 
Est-ce que ça intéresse quelqu'un ou est-ce que tout le monde continue à lire Pastukhov ?


Il est intéressant pour moi, non pas réellement pour le prix, mais pour l'indicateur.

Et il semble que même les quelques personnes intéressées soient déçues par Pastukhov. Et pour rien !
Finalement, la discussion s'est interrompue sur le point le plus intéressant : comment faire une stratégie fonctionnelle à partir de données purement mathématiques ?
les résultats pour en faire une véritable stratégie de travail. Peu importe, qui en a besoin ?
 
Ça intéresse quelqu'un, ou tout le monde continue à lire Pastukhov ? :о)))

Vous pouvez être sûr que TOUT LE MONDE est intéressé ! A la fois Pastukhov et vos recherches.

Et pourquoi ne pas utiliser comme lignes pointillées rouges non pas les RMS, mais les limites des intervalles de confiance, construites sur la base de 3 sigmas, ou calculées par Student par exemple pour un intervalle de confiance de 99% ? Ou bien avez-vous des objectifs particuliers pour la construction des limites choisie ? Juste par curiosité.