![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Mais je m'interroge : ne considérez-vous pas que vos manipulations avec Eview relèvent de l'intelligence ? En ce sens, vous êtes aussi un exemple à suivre ! Peut-être même mieux que Gaidar - il n'avait pas Eview, et Hedrick et Prescott n'étaient pas lauréats du prix Nobel à l'époque.
;)))
EViews est le bas du marché éduqué, mais les automates avec des théories automatiques, des absurdités de RP devraient être expulsés des forums économiques afin qu'ils ne deviennent pas intelligents.
C'est très Gaidar-like de votre part ! !!
:))))))
OK, je ne vais pas encore sauter délibérément à des conclusions fondamentales. Je vous suggère de revenir plus tard.
si cela vous intéresse, je pense que ce sont des objectifs valables :
(1) trouver une classification plus cohérente de la séparation du "mix", c'est-à-dire du devis initial. C'est à dire un "tailing off" plus approprié.
(2) Comprendre les propriétés du processus "betta", si c'est prévisible alors c'est cool, dit - légèrement
Se pourrait-il que l'alpha soit la composante spéculative (généralement prévisible, volumes, sentiment haussier/baissier, etc.) et le bêta la force majeure (imprévisible, une centrale nucléaire qui explose quelque part, un tsunami, etc.)
Où est la preuve qu'il y a des queues épaisses dans votre échantillon ?
S'il vous plaît.
Voici la distribution des minuties pour EURCHF pour 2009-2010 Alpari :
Dans la figure de gauche, les colonnes avec des cercles montrent cette distribution, en bleu la distribution normale ajustée aux points originaux par la méthode des moindres carrés. Vous pouvez clairement voir des queues grasses en dehors de Gauss sur les bords de la distribution. A droite, la même chose mais sur une échelle logarithmique pour rendre l'effet plus clair.
Ai-je prouvé la présence de la TX dans cet échantillon ?
Voici l'alpha et l'oméga de cet échantillon :
Je pense que nous pouvons dire qu'il existe une corrélation mutuelle négative significative entre les deux processus. La séparation a été faite au niveau 5/2 sigma.
Pareil, mais pour les Eurobucks. La séparation a été effectuée au niveau 3 sigma :
Pour le Yen. La séparation était à 2 sigma :
Il semble qu'Alpha et Omega doivent être séparés en fonction de la condition de la somme minimale de la corrélation des paires de processus avec la série de prix. Dans ce cas, la capacité d'information maximale est atteinte pour ces processus en ce qui concerne la prédiction du comportement de la série de prix (cette hypothèse nécessite une preuve).
Alors, Gray, quelle est la suite ?
J'ai étalé les données traitées sur trois instruments différents (un, même, au moment de la crise) et il faut maintenant décider des objectifs. Vous examinez les résultats et résumez les résultats intermédiaires.
Vous êtes les bienvenus.
Ai-je prouvé la présence de la TX dans un échantillon donné ?Merci pour votre réponse sérieuse. Maintenant, je n'ai aucun doute sur le fait que vous cherchez ce qui est là, mais par une méthode différente.
Une autre question demeure : pourquoi ? Il y a des doutes significatifs :
1) le marché a de l'inertie (mémoire) par rapport à toute nouvelle. En examinant les cotations sur 2 ans, vous essayez d'utiliser de tels événements qui ont provoqué une inertie sur 2 ans ?
2) L'horizon temporel de l'investissement. Les queues épaisses que vous avez trouvées montrent qu'il était dangereux d'investir en raison de la volatilité de la variance. Et pour l'avenir ? Quel est le pouvoir prédictif de vos résultats ?
3) le % de bénéfice théorique sur lequel on va capitaliser. J'ai regardé les cotations (je ne comprends pas la fin ou le début de 2010) : le début 1.1600, la fin 1.1500 - 100 pips. Le drawdown à 1.2700=2300 (3300) pips.
Conclusion : toutes les théories en dehors du système de trading du futur n'ont aucun sens.
Pour le commerce, le côté droit du quotient est intéressant.
Et la première question : combien de barres précédentes sont nécessaires pour prédire la prochaine barre avec une certaine probabilité ?
Deuxièmement : quelle analyse devez-vous faire et sur combien de barres pour étayer cette probabilité ?
Bien sûr, le pro-recteur de la Higher School of Economics n'est pas intéressé par une vision aussi terre à terre et en tant que docteur qui n'a pas perdu un centime à la bourse, il peut enseigner sérieusement les processus TS et DS aux âmes vierges, mais qu'en est-il de nous ? Soit on prévoit, soit on ne prévoit pas. Et l'analyse de 2 ans ne nous aide pas dans ce domaine. L'inertie sur laquelle nous pouvons compter dure des jours, des semaines. Les mois sont hors de portée pour nous en raison de prélèvements catastrophiques. Voici les limites.
Mon Dieu, j'en ai marre de ces gens intelligents des universités ! Depuis l'époque soviétique, ils ont fait des choses intelligentes, très intelligentes. Le représentant le plus brillant est Gaidar.
C'est juste une approche intéressante, le livre est purement mathématique, principalement des problèmes d'ingénierie appliquée, et bien sûr l'auteur a testé ses méthodes sur quelques indices et cotations, mais les processus sont très intéressants. Pas de vente ni d'affirmations du type "Je vais casser le Forex" ou "Je vends EA". Tout va bien.
Pourquoi je le mentionne ? C'est très simple, la classification que j'utilise pour ce "phénomène" n'est pas très correcte, et il existe une méthode intéressante, comme je le vois.
à IronBird
Si l'hypothèse est correcte (et en omettant les conclusions pour le moment), alors le marché (dans le sens des zones dans lesquelles le prix devrait frapper) est probablement "mené", bien que tout soit possible. Vous avez peut-être raison. Je pense que la composante spéculative du forex est de 90%, à vue de nez.
D'ailleurs... D'ailleurs, prendre des deltas de minutes et compter pour eux tous ne semble pas tout à fait correct - il y a une forte dépendance de chacun de ces deltas sur l'heure de la journée (session de trading), en fait, je vais vous dire en toute confiance - de chaque minute, même pas d'une heure ... Donc. Il faut d'abord calculer les RMS pour chaque minute de la journée pendant plusieurs années, puis normaliser tous les deltas étudiés par ces valeurs. Ce serait probablement plus correct, n'est-ce pas ?
Idée intéressante, dans notre communauté, seules quelques personnes ont étudié ces dépendances, c'est Yurixx et quelqu'un d'autre. Je ne me souviens même plus. Mais nous devons y réfléchir, c'est peut-être un facteur supplémentaire important.
à Neutron
Итак, Серый, что дальше?
Attends, maintenant je dois donner un sens à tout ça... Je vais rassembler mon astrolabe, vérifier quelque chose et poster le résultat. (Probablement pas avant lundi).