Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Dernier message pour aujourd'hui.
Donc. La question la plus brûlante que Novaja a posée un jour :
Pourquoi convertir le flux actuel de tics, qui est en fait un flux Erlang, en un flux exponentiel, pour revenir ensuite au même flux, mais déjà clairement déformé ???
Je suis d'accord - une erreur a été commise ici. Il faut travailler avec le flux de tique existant et effectuer d'autres transformations sur ce flux source naturel, et non artificiel.
Ainsi, l'algorithme de transformation se présente comme suit :
1. nous prenons le flux de ticks initial mais lisons plutôt tous les deux ticks - regardez les distributions obtenues pour les intervalles de temps et les incréments.
2. ... un tic-tac sur trois est lu - nous examinons les distributions.
3. ...
Jusqu'à ce que la distribution des intervalles de temps acquière un flux d'Erlang clair et prononcé qui satisfait aux formules de la fonction de densité de probabilité, et que la distribution des incréments se rapproche de plus en plus d'une distribution normale.
C'est ce que je vais faire, et je vous ferai part des résultats.
Merci de votre attention.
ce n'est que le début d'années de recherches douloureuses, basées sur des hypothèses et avec beaucoup de deux-points
et les conclusions sont comme un graal...
c'est comme un graal...
Dernier message pour aujourd'hui.
Donc. La question la plus brûlante que Novaja a posée un jour :
Pourquoi convertir le flux actuel de tic-tac, qui est en fait un flux Erlang, en un flux exponentiel, pour revenir ensuite au même flux, mais déjà clairement déformé ???
Je suis d'accord - une erreur a été commise ici. Il faut travailler avec le flux de tique existant et effectuer d'autres transformations sur ce flux source naturel, et non artificiel.
Ainsi, l'algorithme de transformation se présente comme suit :
1. nous prenons le flux de ticks initial mais lisons plutôt tous les deux ticks - regardez les distributions obtenues pour les intervalles de temps et les incréments.
2. ... un tic-tac sur trois est lu - nous examinons les distributions.
3. ...
Jusqu'à ce que la distribution des intervalles de temps acquière un flux d'Erlang clair et prononcé qui satisfait aux formules de la fonction de densité de probabilité, et que la distribution des incréments se rapproche de plus en plus d'une distribution normale.
C'est ce que je vais faire, et je vous ferai part des résultats.
Merci de votre attention.
En lisant tous les 2, puis 3 et ainsi de suite tous les n tick, vous obtenez en fait un graphique des fourchettes de prix de clôture.
Et les distributions de ce tableau, je vous en ai déjà parlé.
Au début, le pic central diminue, il commence à s'estomper pour se rapprocher de la normale, puis la distribution devient bimodale.
Pour comprendre le processus, il faut l'étudier sur les bords et les mesures des bords sont les suivantes : avec n=1, on se rapproche d'une distribution log-normale et avec l'augmentation de n, plus proche de n=100, on obtient une distribution bimodale. Cela signifie que la distribution a toujours été bimodale, c'est juste qu'en raison de la discrétisation à petit n, elles se chevauchent et l'image n'est pas claire.
Votre recherche est donc une invention de la bicyclette.
Nah, ce n'est pas une façon de vendre un éléphant.
A_K2 se caractérise par une absence totale d'approche systématique et d'approfondissement des détails. Quels sont les détails quand il n'y a pas de vision d'ensemble ?
En outre.
Je souhaite sincèrement que A_K2 produise quelque chose qui fonctionne vraiment. Cependant, à en juger par ses posts, ce sera un coup à blanc cette fois aussi.
Le progrès, la science et la technologie sont toujours passés de formes simples (descriptions) à des formes plus complexes. Et, il faut bien le dire, déjà les plus simples fonctionnaient très bien.
Si vous n'avez jamais conçu de voiture, il n'y a aucune chance de commencer par une Mercedes. Vous devriez commencer par quelque chose de simple, quelque chose comme Zhiguli - les principes sont les mêmes que pour Mercedes, mais tout est beaucoup plus simple. Lorsque votre Zhigul commence à bouger, vous pouvez l'améliorer, le moderniser, le compliquer et le porter au niveau des Mercedes. Rappelez-vous, ce qu'étaient les voitures coréennes il y a 15 ans - vous ne pouvez pas vous empêcher de pleurer.
Il semble que A_K2 ait recommencé à concevoir la Mercedes. Elle a pu être construite au moins à Zhigul pendant les 4 mois précédents - il n'y a pas besoin de science pour la concevoir, et les solutions techniques suffisent).
Vous devez travailler avec le flux de tiques que vous avez et effectuer d'autres transformations sur ce flux de source naturelle, et non sur un flux artificiel.
Je vous ai déjà écrit à ce sujet, mais apparemment ma voix ne suffit pas.
Vos "vrais tics" sont inhabituels. Je ne sais pas ce qu'il y a derrière ce "DDE", mais ce n'est pas du tout le fatras désordonné que donne habituellement le forage du forex. Au moins, les tiques sont 10 fois moins fréquentes que d'habitude, ce qui est déjà alarmant. La première poche sur votre histogramme devrait être de ~200ms, pas une seconde.
Veuillez mettre en csv quelques milliers des derniers ticks reçus, sans éclaircir, sans remplir les blancs avec des valeurs passées, mais seulement les prix qui sont venus. Peut-être que quelqu'un les utilisera et confirmera que ces valeurs sont beaucoup plus acceptables pour le commerce que d'habitude. Et alors peut-être que l'intelligence collective de ce fil de discussion suggérera comment faire un graal avec eux en une douzaine de lignes de code mql.
Et vous n'avez pas besoin de convertir quoi que ce soit ? Je ne le crois pas !!!!!!!! Ce n'est pas intéressant.
Le principe du traitement des big data est toujours de travailler avec des données brutes qui contiennent un maximum d'informations, mais d'y ajouter différentes métriques, ou de les réduire sans perdre d'informations.
Si vous commencez à broyer l'information, il est évident que la valeur et l'adéquation de ces algorithmes diminuent immédiatement.
Mais il y a six mois, nous avons discuté du fait que, puisque les différents courtiers ont des flux de ticks différents, la priorité est de les rassembler dans une seule vue universelle. Non ?
L'un ne contredit pas l'autre.
Une vision universelle ne signifie pas qu'il faille les amener au même tic-tac...Merci, voici une comparaison des distributions des gains, et des autocorrélations pour les 1000 dernières valeurs d'enchères audcad. La ligne du haut représente vos tics. La rangée du bas est ce qui se trouve dans le terminal. Il y a une différence, mais je ne peux pas dire, à partir des graphiques, ce qui est le mieux. J'aime que le pic de l'histogramme ne soit pas abrégé comme dans le terminal.
Quelques tests de stationnarité :
Vos tics sont.
Et ceux du terminal :
La valeur p de votre test de Box-Ljung est inférieure d'un ordre de grandeur, ce qui est cool.
Et surtout, vos tics sont un processus avec de la mémoire, c'est très peu marqué. Je ne sais pas comment l'exprimer en chiffres, mais dans mon modèle, vos tics sont plus faciles à prévoir que les tics normaux.
Je me demande s'il existe d'autres tests pour évaluer la prévisibilité ?
Distances entre les ticks à partir du fichier d'Alexander 01AUDCAD_Real 14400 (incréments de 1 seconde)
Si c'est le cas, alors tout le monde devrait travailler dans un flux discret de citations comme le mien et c'est tout. N'est-ce pas ?
C'est ce que je pensais aussi il y a un mois. Puisque vous aviez une distribution logarithmique (ou pascal), j'ai voulu en obtenir une aussi en éclaircissant pour avoir du bon. Après quelques semaines et en essayant "je vais changer p à 0,71 au lieu de 0,72 et ça sera bon". - Je n'ai jamais réussi, c'est un ruban à mesurer, pas une science.
La distribution des gains de prix, et les pauses de temps ne sont que des conséquences. La chose la plus importante est d'obtenir un processus stationnaire non-markovien. Et plus il est stationnaire et non-markovien, mieux c'est. Je pense que c'est la première transformation nécessaire avec l'exigence de stationnarité non-markovienne et les distributions qu'elle produit n'ont pas d'importance.
Je n'ai aucune idée de la façon d'obtenir cette stationnarité non-markovienne, mais cela semble être la bonne méthode.
Ensuite, pour une telle série amincie, on peut essayer d'effectuer une deuxième conversion selon la stratégie commerciale. Comme atteindre une gamme dans les retours, comme vous le vouliez pour votre modèle. Ici, la transformation dépend de votre stratégie, vous pouvez créer des caractéristiques et former des neurones au lieu de procéder à un second éclaircissement.
p.s. -"stationnarité non-markovienne" est un nom profane purement personnel pour cette propriété. En science, on l'appelle probablement différemment.
Distances entre les ticks à partir du fichier d'Alexander 01AUDCAD_Real 14400 (discrétisation de 1 sec.)
À en juger par le graphique d'il y a quelques pages, le pic est passé de 0 à 1. Je suppose que cela dépend de la paire négociée (audcad et cadjpy).
Je pense qu'il s'agit d'une distribution de Pascal avec r=2, p=0.5, q=0.5.
J'ai essayé de dessiner la distribution de Pascal avec de tels paramètres dans R, cela ne coïncide pas. Mais il y a d'autres notations au lieu de r,p,q, peut-être que j'ai fait une erreur.