FR H-Volatilité - page 9

 
Yurixx:

J'ai besoin de le visualiser d'une manière ou d'une autre pour décrire la logique de la prise de décision,


Il est parfois utile de visualiser le diagramme de Voronov. Il suffit de comprendre ce qu'il faut mettre sur les axes X et Y. Voici un exemple avec des explications, que j'ai réussi à dénicher sur Internet.
Dossiers :
doc.zip  631 kb
 
Yurixx:

Même avec un nombre pas très élevé de paramètres, l'espace de phase du système s'avère être trop multidimensionnel pour la perception humaine. Si l'approche est correcte et que les estimations choisies permettent de regrouper l'espace des phases, alors l'emplacement et la forme des groupes peuvent avoir une topologie très complexe. Nous devons soit le visualiser d'une manière ou d'une autre afin de décrire la logique de décision, soit introduire aveuglément des classes et des critères d'appartenance. NS est bien meilleur pour cela, ainsi que pour les évaluations probabilistes (comme nous pouvons le voir).


Si je vous comprends bien, le chercheur doit préparer à l'avance les données d'entrée pour le NS afin d'obtenir un "clustering d'espace de phase". Dans ce cas, le SN allouera indépendamment des zones "significatives" dans l'espace de phase (PS) multidimensionnel des paramètres d'entrée et de leurs combinaisons arbitraires qui réduiront de manière significative le volume du PS et, par conséquent, le volume des calculs nécessaires. N'est-ce pas ?

Mais je ne comprends pas quelles sont les "évaluations probabilistes" que NS "gère beaucoup mieux".

 
Prival:
Parfois, le diagramme de Voronov aide à la visualisation, mais vous devez comprendre ce qu'il faut mettre sur l'axe des X et des Y. Voici un exemple avec des explications, que j'ai réussi à dénicher sur le web.

Corrigez-moi si je me trompe. Le diagramme de Voronov montre la limite optimale (en un sens) de la partition de l'espace sur laquelle les conditions aux limites pour une classe donnée d'équations différentielles sont données. Quel est donc le rapport avec le sujet qui nous occupe ?
 

Neutron

Désolé, cela n'a vraiment rien à voir avec la H-volatilité FR, cela a à voir avec la NS, ou plutôt la théorie de la reconnaissance, un diagramme aide parfois à visualiser les classes et comment les décomposer.

J'ai vu la question et j'ai essayé d'aider.

 
Neutron:


Si je vous ai bien compris, le chercheur doit d'abord préparer les données d'entrée pour le NS afin de réaliser le "clustering de l'espace de phase". Dans ce cas, le NS allouera de manière indépendante des zones "significatives" dans un espace de phase (PS) multidimensionnel des paramètres d'entrée et de leurs combinaisons arbitraires qui permettront de réduire considérablement le volume du PS et, par conséquent, le volume des calculs nécessaires. N'est-ce pas ?

Mais je ne comprends pas quelles sont les "estimations probabilistes" selon lesquelles le NS "se comporte beaucoup mieux".


Le regroupement des FP est une tâche distincte et elle est effectuée par le Kohonennet. Il s'agit d'un réseau à une couche qui, au cours du processus d'apprentissage (sans enseignant, c'est-à-dire par auto-apprentissage), effectue le regroupement des FP. Une fonction noyau est ensuite ajustée à ces données, qui décrit la distribution des clusters. Ensuite, un réseau probabiliste est construit, qui (pour autant que j'aie compris) dans la version la plus simple ne nécessite même pas d'entraînement, mais considère simplement, à l'aide de statistiques bayésiennes, la probabilité que le nouvel échantillon appartienne à un groupe particulier. La sortie est le cluster gagnant. Il s'agit simplement d'un schéma simplifié au maximum.

L'architecture du SN, la façon dont les données d'entrée sont préparées et l'algorithme d'apprentissage sont les trois clés de voûte sur lesquelles tout repose. Comme vous pouvez le constater, chacune des trois composantes implique quelque chose d'informalisable. D'après ce que je comprends, c'est ce que le NS hérite de son créateur, ce qui lui permet de fonctionner avec succès. Et les chiffres - poids et paramètres de la fonction d'activation - ne sont qu'une application. Tout le monde a une tête, mais certaines personnes pensent avec, et d'autres mangent avec. :-)

 

Merci, Yura. Excellente réponse !

Si vous le voulez bien, je vais poser une question sur l'applicabilité de la NS. Par exemple, je ferai référence à mes béliers - constructions Kagi. Nous avons un Zig-Zag générateur (ligne bleue) et une ligne de transaction (rouge).

Il découle de la théorie (thèse de Pastukhov) que le comportement de la ligne rouge est statistiquement prévisible et qu'il (le comportement) est susceptible d'être en zigzag avec l'amplitude S=(H-volatilité-2)*H. Il s'agit du rendement statistique moyen de la stratégie sur un échantillon représentatif. Malheureusement, la valeur estimée est généralement inférieure à l'écart. Et c'est tout ce que la méthode statistique d'analyse des séries chronologiques peut nous apporter dans ce cas.

D'autre part, nous avons un Zig-Zag générateur dont le rendement (pratiquement impossible à réaliser) pour un intervalle de temps fixe, est le maximum possible pour un pas de partition H donné, et le rendement, par exemple avec la partition H=étendue, est le maximum possible pour n'importe quelle BP. J'aimerais pouvoir mettre la main sur un outil capable de prédire le Zig-Zag ! Ou, au moins, prouver la possibilité de principe d'une telle prédiction avec un rendement supérieur à celui donné par statmethod (S).

Ai-je bien compris que le problème dans cette formulation se prête à une analyse avec NS ?

P.S. Il me semble que prévoir le Zig-Zag équidistant (avec un seul pas) est la meilleure option. Deuxièmement, nous nous débarrassons de la dimensionnalité liée à l'échelle de temps - elle n'est pas nécessaire, car nous n'échangeons que des changements de prix, et l'intervalle de temps, pendant lequel ce changement s'est produit, en première approximation, n'est pas inclus dans la rentabilité.

 
Neutron:

J'aimerais pouvoir mettre la main sur un outil capable de prédire le Zig-Zag ! Ou au moins prouver qu'il est possible en principe de faire de telles prévisions avec des rendements supérieurs à celui donné par Statmethod (S).

Ai-je bien compris que le problème dans cette formulation se prête à une analyse avec NS ?

P.S. Il me semble que prévoir le Zig-Zag équidistant (avec un seul pas) est la meilleure option. Deuxièmement, nous nous débarrassons de la dimensionnalité liée à l'échelle de temps - elle n'est pas nécessaire, car nous n'échangeons que des changements de prix, et l'intervalle de temps, pendant lequel ce changement s'est produit, en première approximation, n'est pas inclus dans la rentabilité.


En théorie, bien sûr, cela convient. Mais pratiquement...

Les quelques ouvrages que j'ai lus sur les réseaux regorgent de conseils aux débutants : prévoir le comportement des prix est inefficace. En effet, si l'on y réfléchit, comment le réseau pourra-t-il soudainement savoir comment le prix évoluera à l'avenir. Juste parce que nous l'avons doté de beaucoup de neurones et nourri de beaucoup de données ? En la matière, je suis un rationaliste. Cette connaissance ne sort pas de nulle part et ne naît pas d'elle-même. J'ai écrit sur trois baleines pour une raison précise. Outre ces baleines, la source dont elles sont tirées est encore plus importante - l'intention de l'auteur. Et dans ce concept, il faut avoir une idée de quelles données et sous quelle forme peuvent contenir les informations essentielles sur le marché, comment elles doivent être traitées dans le réseau pour obtenir d'autres chiffres à partir desquels on peut tirer une conclusion significative pour la prise de décision et, enfin, comment apprendre au réseau à trouver ces chiffres.

De ce point de vue, je pense que le problème dans cette formulation, bien que convenant au réseau, est compliqué et a peu de perspective. Comme les ticks et le zigzag construit sur eux ont des distributions assez similaires, il n'est pas plus facile de prédire le zigzag que le prix.

Il me semble que le ZigZag est vraiment intéressant à utiliser comme entrée de réseau, mais comme la forme la plus pratique de représentation des modèles de prix. Ces mêmes motifs, le lien vers le site que vous m'avez donné, pourraient être une option très intéressante. Mais dans ce cas, le filet ne prédit pas le prix mais détermine l'état du marché. Il s'agit d'une approche légèrement différente. Pour NS, donner des résultats statistiques à la hausse ou à la baisse est une tâche beaucoup plus réaliste que de prédire le mouvement. Mais cette variante se combine bien avec ZigZag. Il existe donc des perspectives, il suffit de formuler l'énoncé du problème de manière à ce qu'il soit résoluble.

 

Merci, Yura, pour ces explications lucides - maintenant ma tête est un peu plus claire.

D'ailleurs, j'étais tellement sûr que la ligne de transaction FR (la rouge dans l'image précédente) a une distribution normale, que je n'ai même pas voulu étudier ce point. Quelle ne fut pas ma surprise quand j'ai vu CECI :

D'accord, un résultat inattendu... Comparez-la à la photo figurant dans le premier message de ce fil. Là, le FR pour les côtés du Zig-Zag est donné.

 

Oui, c'est une photo intéressante. Si j'ai bien compris, il s'agit d'un cloisonnement avec le paramètre H=10 ? Mais un certain lien avec l'image du premier message est toujours apparent.

Au fait, une pensée m'a traversé l'esprit. Je pense que, tout de même, vous aviez raison quant aux perspectives d'utilisation de NS pour la prédiction du ZigZag. Seulement, ce ne devrait pas être un kagi, mais un renko-building. Dans ce cas, une formalisation plus ou moins claire des motifs ZigZag est effectivement possible, et donc le regroupement de l'espace de ces motifs, et la prédiction de la taille des segments ainsi que l'évaluation statistique de la validité de cette prédiction. Je suis intéressé par votre évaluation de cette pensée. Le point principal est la différence entre kaga et renko. Pour renko, je sais clairement comment formaliser les modèles et donc comment les comparer entre eux et comment évaluer leur proximité. Pour le kaga, l'image est très floue et la même procédure peut donc ne pas fonctionner.

En revanche, je sais a priori que ce qui est vrai pour le kaga le sera aussi pour le renko. Je ne suis pas sûr de l'inverse, cependant. Si le contraire est également vrai, alors mon parti pris pour le renko est une erreur et le NS peut tout aussi bien être appliqué pour prédire la taille du segment de n'importe quel zigzag, tant renko que kaga.

Qu'en pensez-vous ?

 

D'une part, les constructions Kagi déterminent la position de l'extremum de la BP avec une précision au point près (Renko à l'étape de partitionnement H). D'autre part, il n'est pas certain que nous ayons besoin d'une telle précision ? Dans ce sens, Renko semble plus attrayant en raison de l'étape équidistante H sur l'échelle des prix. En bref, la question doit être étudiée.

Quant à la formalisation de la tâche de prévision Zig-Zag, elle m'apparaît comme une estimation de l'amplitude probable du mouvement U du prix (vecteur rouge) depuis le point de fin de formation de l'extremum actuel t=0, jusqu'au point d'extremum attendu t=1 (voir Fig. ).

Dans ce cadre, la seule chose à prévoir est l'amplitude du mouvement du vecteur U, car sa direction est prédéfinie - elle coïncide avec la direction du vecteur H (flèche verte pleine). L'amplitude que le vecteur U est autorisé à recevoir est comprise entre 0 et l'infini (voir figure de droite). La valeur la plus probable de l'amplitude que prend le vecteur U est de 2 points et sa valeur moyenne est un peu inférieure à N. D'ailleurs, si une valeur probable était supérieure au spread, nous pourrions considérer cette stratégie comme positivement rentable. Je parle de l'application possible de FR pour l'analyse d'arbitrage de BP.

Bien sûr, à la sortie de NS nous devons appliquer un Zig-Zag, mais qu'appliquer à l'entrée... également un Zig-Zag décalé d'un pas ? Mais, nous n'avons pas besoin de NS pour analyser cette situation ! Je pense que notre tâche consiste à détecter les arbitrages naissants à un stade précoce (voir la figure). Pour ce faire, nous devons déjà analyser la familiarité de la ligne de transaction. Sauf que le problème est qu'elle consiste généralement en 1 ou 2, plus rarement 3 ruptures et qu'au moment de l'identification, le marché devient efficient. Il existe peut-être des signes indirects de l'origine de l'arbitrage, mais la tâche de leur détection précoce, de leur classification et de leur modernisation constante incombe à NS.

Qu'en pensez-vous ?

Je lis sur internet :

Что лучше, статистические методы или нейронные сети? Лучшим ответом на этот сугубо практический для прикладника вопрос является “It depends”. По-русски это означает “Все зависит от ситуации”.

La principale conclusion pratique que l'on peut tirer se résume à cette phrase, déjà devenue un aphorisme : "Si rien ne marche, essayez les réseaux neuronaux".