Modèle de marché : débit constant - page 3

 

L'idée en soi est curieuse, mais le message sous-jacent est vraiment étrange. Personnellement, je n'aime pas ça. Si la quantité d'informations est toujours à peu près constante, alors il ne se passe pas grand-chose sur le marché. Mais ce n'est pas comme ça. Sur le marché, il y a régulièrement des catastrophes dans lesquelles la quantité d'informations change exactement (comme la transition vers un autre état de phase).

 

L'homme propose d'analyser des bits d'informations compressées, pour prédire une nouvelle "trame" dans le flux, quoi de mieux, par exemple, qu'une trame MPG4 comparée à une trame MPG1 pour prédire la trame suivante ?

Peut-être que c'est plus facile de suivre l'intrigue du film :)

 
hrenfx:

L'information est un ensemble de bits qui ne peuvent être comprimés d'aucune manière pour être transmis.

Il est supposé que le marché, en tant que système relativement fermé, génère une quantité constante (ou changeant lentement) d'informations par unité de temps.

Qu'est-ce que cela signifie ?

Les données du marché sont tout ce qui peut être obtenu du marché. La plus simple est celle des prix.

L'unité de temps est le temps. On suppose que la quantité d'informations sur le marché est toujours égale à N au cours du temps . C'est plus simple :

Nous avons collecté pendant le temps les données du marché. Nous le compressons au maximum (il est impossible de le compresser davantage), obtenant ainsi un ensemble de bits incompressibles - il s'agit de l'information dont la quantité est constante(N) pour l'unité de temps Temps.

Comprimer le plus possible est une théorie. Il existe de nombreux algorithmes de compression. Plus l'algorithme de compression est puissant, plus il est capable d'estimer la quantité d'informations contenues dans les données disponibles. C'est-à-dire que nous ne pouvons pas déterminer exactement la quantité d'informations, mais nous pouvons l'estimer.

La façon d'utiliser ce modèle pour le trading est décrite ici.

La vérification de l'adéquation du modèle n'est pas très difficile. Il suffit de disposer d'une grande quantité de données historiques sur le marché. Prenez une fenêtre coulissante de taille Time. Et pour chaque position de la fenêtre, effectuer une compression (les algorithmes peuvent être différents) en obtenant le nombre de bits. Par conséquent, nous obtiendrons une estimation de la quantité d'information de la BP. Il ne reste plus qu'à analyser cette BP et à en tirer les conclusions qui s'imposent.



Claude Shannon, qui a d'ailleurs abandonné sa carrière scientifique et dont on dit aujourd'hui qu'il est actif sur le marché boursier, a introduit la notion de mesure de l'information :

un événement qui a M issues possibles Xi avec la probabilité P[Xi], décrivant la probabilité d'occurrence de la i-ième issue, contient

une information dont la valeur est définie par l'expression :

I[Xi] = ln(1/P[Xi]) = - ln P[Xi]

La valeur attendue ou moyenne de cette information I est égale à l'entropie H,

C'est-à-dire que l'entropie est une mesure de l'incertitude, vous vous souvenez de la température moyenne dans un hôpital ? :))) Ici,

c'est l'incertitude, l'entropie :).

"L'information est un ensemble de bits qui ne peuvent en aucun cas être comprimés pour être transmis" Sounds !

Mais il me semble que la seule façon pour qu'un ensemble "ne puisse êtrecompressé d' aucune façon" est

un ensemble constitué d'un seul bit, c'est-à-dire que lorsqu'il n'y a pas de redondance, alors il y a

il n'y a rien à compresser ! C'est-à-dire que lorsque ce bit prend l'une des deux valeurs "0" ou "1", mais !

est une certitude absolue ! Donc vous exprimez l'espoir qu'il y a des procédures qui peuvent

d'apporter le caractère aléatoire contenu dans le marché du forex, qu'il existe des procédures qui peuvent complètement

éliminer ce caractère aléatoire au point qu'il ne puisse plus aller plus loin ? Hmm. Et c'est d'autant plus impossible que le marché des changes n'est pas un système en boucle fermée .

Ceci est prouvé par une forte non-stationnarité, c'est-à-dire la volatilité des paramètres statistiques, des cotations des paires de devises et de l'euro.

La vision empirique du marché comme une combinaison de l'analyse technique et de l'analyse fondamentale, qui comme vous le savez

concernent respectivement l'humeur interne du marché et l'analyse de la situation en dehors du marché.

C'est pourquoi j'ai écrit autant, parce que vos, euh, hypothèses me semblaient complètement à l'envers.

 
TheVilkas:

Je suis familier avec les bases de la théorie de l'information. Il semble avoir donné une définition ambiguë de l'information. Laissez-moi paraphraser :

La quantité d'informations contenues dans les données correspond au nombre minimum de bits nécessaires pour récupérer les données.

En d'autres termes, le nombre de bits dans les données maximales compressées (récupérables) correspond à la quantité d'informations contenues dans ces données. L'information dite pure contenue dans les données.

 
hrenfx:

L'information est un ensemble de bits qui ne peuvent être comprimés d'aucune manière pour être transmis.

Il est supposé que le marché, en tant que système relativement fermé, génère une quantité constante (ou changeant lentement) d'informations par unité de temps.

Qu'est-ce que cela signifie ?

Les données du marché sont tout ce qui peut être obtenu du marché. La plus simple est celle des prix.

L'unité de temps est le temps. On suppose que la quantité d'informations sur le marché est toujours égale à N dans le temps . C'est plus simple :

Nous avons collecté pendant le temps les données du marché. Nous le compressons au maximum (il est impossible de le compresser davantage), obtenant ainsi un ensemble de bits incompressibles - c'est l'information dont la quantité est constante(N) pour l'unité de temps Temps.

Comprimer le plus possible est une théorie. Il existe de nombreux algorithmes de compression. Plus l'algorithme de compression est puissant, plus il est capable d'estimer la quantité d'informations contenues dans les données disponibles. C'est-à-dire que nous ne pouvons pas déterminer exactement la quantité d'informations, mais nous pouvons l'estimer.

La façon d'utiliser ce modèle pour le trading est décrite ici.

La vérification de l'adéquation du modèle n'est pas très difficile. Il suffit de disposer d'une grande quantité de données historiques sur le marché. Prenez une fenêtre coulissante de taille Time. Et pour chaque position de la fenêtre, effectuer une compression (les algorithmes peuvent être différents) en obtenant le nombre de bits. Par conséquent, nous obtiendrons une estimation de la quantité d'information de la BP. Il ne reste plus qu'à analyser cette BP et à en tirer les conclusions qui s'imposent.


L'archivage sans perte implique la compilation d'un nouvel alphabet dont la description + le codage de l'information à archiver sera de taille plus petite que l'information elle-même. En gros, il s'agit d'une allocation de certains modèles. Mais cela est efficace pour des modèles comme les grammaires régulières - où il existe des règles strictes et non ambiguës, ou les écarts par rapport à ces règles ne sont pas fréquents. S'il y a du bruit, par exemple, l'efficacité de l'archivage diminue considérablement. Si, dans un texte, un mot est répété 100 fois, mais chaque fois avec une erreur ou quelques lettres échangées, les algorithmes de compression sans perte ne peuvent pas le conserver dans un modèle distinct. Les algorithmes de compression avec perte, tels que ceux utilisés pour l'image, la vidéo et le son, sont ici efficaces. Mais tous ne peuvent toujours pas prendre en compte les règles contextuelles, comme le changement de terminaison des mots en fonction de la casse, etc. etc. Par exemple, ils mettront en évidence les combinaisons de lettres les plus fréquemment utilisées dans le texte et c'est tout. Il en va de même pour le marché : il isolera les modèles élémentaires les plus courants, mais pas le fait que leur utilisation permettra d'établir des prévisions probabilistes. Elle peut être encore plus exacte, une prévision rentable. Sinon, il y aura une prévision avec une probabilité de 90 % que tel ou tel scénario se poursuive. Mais la perte financière liée au scénario des 10% restants sera la même que le bénéfice réalisé en utilisant ces 90èmes.

En bref, tout dépend de l'archiveur. L'allocation des règles de profondeur est un travail pour l'intelligence artificielle (ou naturelle :)), et non pour le rar :) Et bien sûr, l'essentiel n'est pas leur globalité, mais la possibilité d'une utilisation rentable.

 

Je ne comprends pas le premier message du sujet transformé en formules, mais je pense que vous essayez de parler de l'entropie.

ZS : Je déteste la théorie du transfert d'information, à cause d'une seule faute de frappe (j'ai confondu bps et baud), mon bulletin de notes a reçu un "O" au lieu d'un "A".

 
Mathemat:

L'idée en soi est curieuse, mais la prémisse sous-jacente est vraiment étrange. Personnellement, je ne l'aime pas. Si la quantité d'informations est toujours approximativement constante, il ne se passe pas grand-chose sur le marché. Mais ce n'est pas comme ça. Sur le marché, il y a régulièrement des catastrophes dans lesquelles la quantité d'informations change exactement (comme la transition vers un autre état de phase).


J'espère que les membres du forum se souviendront de ce fil de discussion.https://www.mql5.com/ru/forum/105740

la toute première page

dont un rôle particulier dans la théorie des flux est joué par une fonction de moment de premier ordre appelée intensité du flux (FTI) :

Une autre façon de dire que l'IP est la quantité d'informations par unité de temps. On peut considérer comme un analogue le nombre de ticks par unité de temps, si l'on n'analyse pas aussi les nouvelles. D'ailleurs, à mon avis, vous ne pouvez pas compresser, compresser (pas compresser) la quantité d'information ne change pas.

Z.U., vous aurez du mal à vous passer d'un tickframe. vérifier l'historique ne fonctionnera pas non plus https://www.mql5.com/ru/forum/1031/page1#comment_6372 l'historique sous forme de minutes tue cette information...

 
hrenfx:

Il n'est pas très difficile de vérifier l'adéquation du modèle. Il suffit de disposer d'une grande quantité de données historiques sur le marché. Prenez une fenêtre coulissante de taille Time. Et pour chaque position de fenêtre, effectuer une compression (différents algorithmes peuvent être utilisés), en obtenant le nombre de bits. Par conséquent, nous obtiendrons une estimation de la quantité d'information de la BP. Il ne reste plus qu'à analyser cette BP et à en tirer les conclusions appropriées.

Testé. J'ai pris une fenêtre coulissante de taille par jour(288 M5) et en la déplaçant chaque fois pendant 5 minutes j'ai appliqué la compression RAR et 7Z LZMA de début 2010 à octobre 2010 - presque 60 000 fenêtres coulissantes compressées par chaque archiveur. Voici à quoi ressemblent les graphiques des échantillons du marché FOREX(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILVER, GOLD) en taille comprimée :

Étonnamment, RAR a montré des résultats extrêmement instables. La taille des fenêtres compressées fluctue énormément. 7Z LZMA a montré des résultats stables et une taille de fenêtre compressée plus petite. C'est pourquoi le LZMA 7Z a été choisi pour des recherches plus approfondies.

J'ai ensuite commencé à faire la même chose, mais en variant l'échantillon de marché : j'ai d'abord ajouté un symbole(AUDUSD), puis un autre et encore un autre, jusqu'à ce que j'aie 9 symboles(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILVER, GOLD). La tâche consistait à découvrir comment l'archiveur trouve des corrélations avec l'introduction de nouveaux symboles. S'il existe des corrélations, la taille moyenne d'une fenêtre compressée devrait croître de manière non linéaire lorsqu'un nouveau symbole est ajouté. Voilà comment ça s'est passé :

Nous pouvons constater que déjà avec 8 outils, au moins 20% des données sont superflues (ne contiennent aucune information). C'est-à-dire qu'il y a une corrélation et pas une petite. Il est intéressant de noter que l'ajout du 9ème instrument financier(GOLD) n'a pas révélé d'interrelations (le MI n'a pas diminué). Le SMR avec l'ajout d'instruments financiers a augmenté de plus de 50%(9 instruments) par rapport au début(1 instrument).

Les graphiques de changement de la taille des fenêtres compressées (les MO sont réduits à un) se présentent comme suit pour différents ensembles d'instruments financiers :

Les distributions de ces graphiques :

Quelles conclusions peut-on en tirer ?

Il était impossible de réfuter ou de confirmer le modèle. Les algorithmes de compression montrent très bien la présence de relations élémentaires (les algorithmes sont très simples) entre les instruments financiers (plus de 20% des données redondantes sont éliminées dans 8 instruments financiers). Beaucoup diraient que c'est naturel, car on utilise la conversion solide. Mais ce n'est pas tout à fait le cas. L'exemple est l'or, pour lequel l'archiveur ne trouve pas de lien avec 8 autres symboles.

P.S. Les croix n'ont pas été analysées intentionnellement, car nous savons qu'elles sont totalement corrélées aux majors et ne contiennent donc aucune information supplémentaire. Par conséquent, seules les majors sont concernées.

P.P.S Toutes les données sur les tailles des fenêtres sont jointes.

P.P.P.S. C'était intéressant de résoudre le problème. J'ai dû utiliser de nouvelles méthodes. En particulier, j'ai dû utiliser un disque RAM pour effectuer plus d'un demi-million de compressions de différentes fenêtres. Finalement, cela a été relativement rapide.

Dossiers :
4analyse.rar  497 kb
 
hrenfx:

...

Si vous le voulez bien, faites la même chose mais avec une TA générée artificiellement en utilisant RMS. Très intéressant de voir ce qui se passe.
 
hrenfx:

J'ai ensuite fait de même, mais j'ai changé l'échantillon de marché : j'ai d'abord ajouté un instrument financier(AUDUSD), puis un autre jusqu'à ce que j'aie 9 instruments financiers(AUDUSD, EURUSD, GBPUSD, USDCHF, USDJPY, USDCAD, NZDUSD, SILVER, GOLD).

Et comment s'est déroulée cette addition ?