Phénomènes de marché - page 28

 
Farnsworth:

Le modèle de marché

...Son essence est très simple. Il existe un nombre fini de structures qui décrivent la transformation des entrées en sorties. Chacune de ces structures implique une sorte de modèle selon lequel la transformation a lieu. Le processus observé est formé par une transition (commutation) entre les structures...

Il me semble que vous pensez dans la bonne direction. J'ajouterais également que les prix à une certaine période ne sont pas seulement représentés comme des transitions entre ces structures, mais comme leurs combinaisons pondérées. L'important est de trouver ces structures. Qu'est-ce que c'est ? Vecteurs principaux ? Sinus et cosinus comme dans la transformée de Fourier ? Des ondelettes ? Si quelqu'un sait comment identifier correctement ces structures à partir d'une série chronologique, veuillez nous faire part de vos réflexions. Il peut y avoir plusieurs choix ici, mais un seul est correct. Je considérerais comme correctes ces structures (ondelettes), qui prennent le moins de temps pour décrire le prix. Ceci est le fruit de mon expérience en tant qu'ingénieur radio. L'information numérique transmise est 100110... passe par un filtre numérique/modulateur DAC et est ainsi converti en un signal analogique avec plus de valeurs que l'information originale. Le processus de représentation des prix du marché en tant que transitions entre structures est essentiellement identique au processus de démodulation d'un signal radio (ou de réduction de la dimensionnalité des processus stochastiques). Pour démoduler correctement ce signal, nous devons savoir avec quels filtres (structures) il a été codé.
 
Farnsworth:
Chers collègues, je vais quitter le forum pour une période prolongée.
Dommage, bien sûr... (compter pour compter alpha et omega - je pense que ce sont des actions de masquage pour cacher la tendance, le renversement de tendance)
 

gpwr, le problème est que ce décodage (ou, à peu près la même chose, le passage d'une structure à l'autre) est très probablement non linéaire.

Les liens linéaires entre les événements (corrélations de Pearson) disparaissent déjà à de petites "distances" entre les événements. Par distance, j'entends le nombre d'unités de base TF, c'est-à-dire le nombre de barres.

Jusqu'à présent, il n'y a rien de plus à dire, car je suis moi-même dans l'obscurité et à tâtons.

 
gpwr:
Il me semble que vous pensez dans la bonne direction. J'ajouterais également que les prix à un certain intervalle de temps sont représentés non pas comme de simples traversées entre ces structures, mais comme leurs combinaisons pondérées. L'important est de trouver ces structures. Qu'est-ce que c'est ? Vecteurs principaux ? Sinus et cosinus comme dans la transformée de Fourier ? Des ondelettes ? Si quelqu'un sait comment identifier correctement ces structures à partir d'une série chronologique, veuillez nous faire part de vos réflexions. Il peut y avoir plusieurs choix ici, mais un seul est correct. Je considérerais comme correctes ces structures (ondelettes), qui prennent le moins de temps pour décrire le prix. C'est mon expérience en tant qu'ingénieur radio. L'information numérique transmise est 100110... passe par un filtre numérique/modulateur DAC et est ainsi converti en un signal analogique avec plus de valeurs que l'information originale. Le processus de représentation des prix du marché en tant que transitions entre structures est essentiellement identique au processus de démodulation d'un signal radio (ou de réduction de la dimensionnalité des processus stochastiques). Pour démoduler correctement ce signal, nous devons savoir avec quels filtres (structures) il a été codé.

En tant que technicien radio (malheureusement déjà dans le passé), je soutiens votre idée de démodulation.

L'idée de la détection synchrone est suggérée - l'essentiel est de déterminer le signal de référence et le type de filtrage (plutôt non linéaire).

 
Mathemat:

gpwr, le problème est que ce décodage (ou, à peu près la même chose, le passage d'une structure à l'autre) est très probablement non linéaire.

Les liens linéaires entre les événements (corrélations de Pearson) disparaissent déjà à de petites "distances" entre les événements. Par distance, j'entends le nombre d'unités de base TF, c'est-à-dire le nombre de barres.

Jusqu'à présent, je n'ai rien de plus à dire, car je vais moi-même dans le noir et à tâtons.

Mon intérêt pour ce sujet est dû à leur application plus pratique que la prédiction des prix du marché. Je m'intéresse maintenant davantage au développement de systèmes de reconnaissance rapide de la parole. Comme nous le savons, la parole est constituée de phonèmes (les mêmes structures), dont l'ensemble forme un mot. Par exemple, dans une langue russe, il n'y a que 43 phonèmes qui forment 150-200 mille mots. Ces mots forment des phrases et des discours. La parole peut être considérée comme l'équivalent d'un prix de marché, dont nous ne connaissons pas les phonèmes (structures). C'est pourquoi il ressemble à du bruit (imaginez le discours d'un extraterrestre). Les phonèmes de la parole sont générés par les cordes vocales, la langue, etc. - en bref, par des filtres vocaux, dont l'entrée est un bruit sous forme d'air expiré. Notre perception de la parole est également un processus de filtrage des sons à travers les filtres de l'oreille interne, qui sont accordés aux différents phonèmes. En d'autres termes, l'entrée (l'oreille) est un signal codé (la parole) et la sortie (dans le cortex cérébral) est le signal (les mots). La prédiction des prix revient à prédire les futurs phonèmes (structures). Mais cela ne m'intéresse pas. Je m'intéresse à la reconnaissance des phonèmes (structures) passés et présents. Pour y parvenir, il faut disposer d'un vocabulaire de ces phonèmes et corréler la parole avec ces phonèmes connus (de manière simplifiée bien sûr). Si nous savons quelle est la langue parlée par notre interlocuteur, il nous suffit de consulter le dictionnaire de phonèmes correspondant, de décoder le discours en un texte, puis de le traduire à l'aide du dictionnaire. Mais qu'en est-il si nous ne connaissons pas la langue de l'orateur ? Comment déterminer les phonèmes à partir de la parole ? Ou, d'ailleurs, comment déterminer les structures à partir des offres de prix ? Notez que le nombre de structures de prix doit être du même ordre que le nombre de phonèmes de la parole (10-100).

 

gpwr:

...

Notez que le nombre de structures de prix doit être du même ordre que le nombre de phonèmes de la parole (10-100).

Ici, à mon avis, le sujet des "modèles de marché" (certains, comme vous l'écrivez, des phonèmes) me tient à cœur - en particulier leur fixation et leur reconnaissance, supposons, par NS. Ensuite, la décision de trading est prise - à la hausse ou à la baisse. C'est donc comme ça.
 
Roman.:
Je pense que nous sommes déjà proches du sujet des "modèles de marché" (certains phonèmes, comme vous l'écrivez) - en particulier leur fixation et leur reconnaissance, supposons-le, par NS. Ensuite, la décision de trading est prise - à la hausse ou à la baisse. C'est donc comme ça.


Je suis d'accord. Il existe de nombreux termes différents : phonèmes, structures, modèles, ondelettes, fonctions de base. Je préfère le terme de fonctions de base. Je m'intéresse à la question suivante : comment déterminer automatiquement les fonctions de base lorsqu'on connaît une série temporelle ? Bien sûr, on peut examiner visuellement cette série et trouver des triangles, des drapeaux et d'autres formes sympathiques. Mais personne n'a encore prouvé que ces schémas sont statistiquement importants et ne sont pas simplement le fruit de l'imagination. Rappelez-vous comme dans l'anecdote :

Le psychiatre montre différentes photos au patient en lui demandant : "Qu'y voyez-vous ?" Et le patient répond : "Un homme et une femme qui font l'amour." "Vous êtes une sorte de débauché", dit le docteur. Et le patient dit : "Eh bien, vous m'avez montré ces photos obscènes vous-même."

L'identification automatique des fonctions de base statistiquement importantes est un processus compliqué et je ne pense pas que quiconque ait trouvé le moyen de le faire correctement, même avec des réseaux neuronaux. Bien sûr, nous pouvons simplifier la tâche et supposer à l'avance que la série temporelle est divisée en ondelettes de Haar, ou en fonctions trigonométriques comme dans les séries de Fourier, ou en d'autres fonctions de base souvent utilisées dans la régression. Et toutes ces fonctions de base reproduiront avec succès nos séries, qu'il s'agisse de séries de prix ou de séries vocales. Mais imaginez que nous décomposions la parole en ondelettes de Haar - elles n'ont rien à voir avec les phonèmes. Il serait tout aussi inutile de décomposer une série de prix en ondelettes de Haar ou en fonctions trigonométriques. Il convient de mentionner la détection compressive, dont l'essence est de décrire le signal avec le plus petit ensemble de fonctions de base. Bien qu'il existe de nombreux algorithmes de cette méthode, ils supposent tous que nous connaissions les fonctions de base. Si vous avez des idées sur l'algorithme permettant de trouver des fonctions de base à partir des séries de prix, veuillez les partager.

 
gpwr:


... En bref, si quelqu'un a des idées sur un algorithme permettant de trouver des fonctions de base à partir d'une série de prix, merci de les partager.

Il existe une pilule universelle - les algorithmes génétiques. Du moins, si l'on ne sait rien (ou presque rien) du processus, et que l'on a encore besoin d'enquêter et d'obtenir le résultat, alors il faut d'abord essayer l'AG.
 
sergeyas:

En tant que technicien radio (malheureusement déjà dans le passé), je soutiens votre idée de démodulation.

L'idée de la détection synchrone est suggérée - l'essentiel est de déterminer le signal de référence et le type de filtrage (plutôt non linéaire).


J'aime déjà ça... Sergey, quels sont les grands principes de physique de la radio (télégraphe, etc.) ?
 
gpwr:


Je suis d'accord. Il existe de nombreux termes différents : phonèmes, structures, modèles, ondelettes, fonctions de base. Je préfère le terme de fonctions de base. Je m'intéresse à la question suivante : comment déterminer automatiquement les fonctions de base lorsqu'on connaît une série temporelle ? Bien sûr, on peut examiner visuellement cette série et trouver des triangles, des drapeaux et d'autres formes sympathiques. Mais personne n'a encore prouvé que ces schémas sont statistiquement importants et ne sont pas simplement le fruit de l'imagination. Rappelez-vous comme dans l'anecdote :

Le psychiatre montre différentes photos au patient en lui demandant : "Qu'y voyez-vous ?" Et le patient répond : "Un homme et une femme qui font l'amour." "Vous êtes une sorte de débauché", dit le docteur. Et le patient dit : "Eh bien, vous m'avez montré ces photos obscènes vous-même."

L'identification automatique des fonctions de base statistiquement importantes est un processus compliqué et je ne pense pas que quiconque ait trouvé le moyen de le faire correctement, même avec des réseaux neuronaux. Bien sûr, nous pouvons simplifier la tâche et supposer à l'avance que la série temporelle est divisée en ondelettes de Haar, ou en fonctions trigonométriques comme dans les séries de Fourier, ou en d'autres fonctions de base souvent utilisées dans la régression. Et toutes ces fonctions de base reproduiront avec succès nos séries, qu'il s'agisse de séries de prix ou de séries vocales. Mais imaginez que nous décomposions la parole en ondelettes de Haar - elles n'ont rien à voir avec les phonèmes. Il serait tout aussi inutile de décomposer une série de prix en ondelettes de Haar ou en fonctions trigonométriques. Il convient de mentionner la détection compressive, dont l'essence est de décrire le signal avec le plus petit ensemble de fonctions de base. Bien qu'il existe de nombreux algorithmes de cette méthode, ils supposent tous que nous connaissions les fonctions de base. Si vous avez des idées sur l'algorithme permettant de trouver des fonctions de base à partir des séries de prix, veuillez les partager.

J'ai essayé d'utiliser (18) de [url=https://www.mql5.com/ru/articles/250] "Universal regression model for market price prediction"[/url] comme fonction de base. Il décrit de manière satisfaisante les dépendances construites artificiellement à partir de diverses fonctions dans toutes les combinaisons possibles, y compris les sommes, les produits, les logarithmes, les puissances, les exponentielles, etc.