Phénomènes de marché - page 42

 
avtomat:

Mais je m'interroge : ne considérez-vous pas que vos manipulations avec Eview relèvent de l'intelligence ? En ce sens, vous êtes aussi un exemple à suivre ! Peut-être même mieux que Gaidar - il n'avait pas Eview, et Hedrick et Prescott n'étaient pas lauréats du prix Nobel à l'époque.

;)))

EViews est le bas de l'échelle de l'éducation du marché, mais les automates avec des théories automatiques et des bêtises de relations publiques devraient être expulsés des forums économiques pour ne pas devenir intelligents.
 
faa1947:
EViews est le bas du marché éduqué, mais les automates avec des théories automatiques, des absurdités de RP devraient être expulsés des forums économiques afin qu'ils ne deviennent pas intelligents.

C'est très Gaidar-like de votre part ! !!

:))))))

 
Farnsworth:

OK, je ne vais pas encore sauter délibérément à des conclusions fondamentales. Je vous suggère de revenir plus tard.

si cela vous intéresse, je pense que ce sont des objectifs valables :

(1) trouver une classification plus cohérente de la séparation du "mix", c'est-à-dire du devis initial. C'est à dire un "tailing off" plus approprié.

(2) Comprendre les propriétés du processus "betta", si c'est prévisible alors c'est cool, dit - légèrement


Se pourrait-il que l'alpha soit la composante spéculative (généralement prévisible, volumes, sentiment haussier/baissier, etc.) et le bêta la force majeure (imprévisible, une centrale nucléaire qui explose quelque part, un tsunami, etc.)
 
D'ailleurs... Il ne semble pas tout à fait correct de prendre des deltas de minutes et de calculer pour eux TOUS les SKO - il y a une forte dépendance de chacun de ces deltas sur le temps de la journée (session de négociation), de plus, je vais vous dire un secret - de chaque minute, même pas d'une heure ... Donc. Il faut d'abord calculer les RMS pour chaque minute de la journée pendant plusieurs années, puis normaliser tous les deltas étudiés par ces valeurs. Ce serait probablement plus correct ?
 
faa1947:
Où est la preuve qu'il y a des queues épaisses dans votre échantillon ?

S'il vous plaît.

Voici la distribution des minuties pour EURCHF pour 2009-2010 Alpari :

Dans la figure de gauche, les colonnes avec des cercles montrent cette distribution, en bleu la distribution normale ajustée aux points originaux par la méthode des moindres carrés. Vous pouvez clairement voir des queues grasses en dehors de Gauss sur les bords de la distribution. A droite, la même chose mais sur une échelle logarithmique pour rendre l'effet plus clair.

Ai-je prouvé la présence de la TX dans cet échantillon ?

Voici l'alpha et l'oméga de cet échantillon :

Je pense que nous pouvons dire qu'il existe une corrélation mutuelle négative significative entre les deux processus. La séparation a été faite au niveau 5/2 sigma.

Pareil, mais pour les Eurobucks. La séparation a été effectuée au niveau 3 sigma :

Pour le Yen. La séparation était à 2 sigma :


Il semble qu'Alpha et Omega doivent être séparés en fonction de la condition de la somme minimale de la corrélation des paires de processus avec la série de prix. Dans ce cas, la capacité d'information maximale est atteinte pour ces processus en ce qui concerne la prédiction du comportement de la série de prix (cette hypothèse nécessite une preuve).

Alors, Gray, quelle est la suite ?

J'ai étalé les données traitées sur trois instruments différents (un, même, au moment de la crise) et il faut maintenant décider des objectifs. Vous examinez les résultats et résumez les résultats intermédiaires.

 
Neutron:

Vous êtes les bienvenus.

Ai-je prouvé la présence de la TX dans un échantillon donné ?

Merci pour votre réponse sérieuse. Maintenant, je n'ai aucun doute sur le fait que vous cherchez ce qui est là, mais par une méthode différente.

Une autre question demeure : pourquoi ? Il y a des doutes significatifs :

1) le marché a de l'inertie (mémoire) par rapport à toute nouvelle. En examinant les cotations sur 2 ans, vous essayez d'utiliser de tels événements qui ont provoqué une inertie sur 2 ans ?

2) L'horizon temporel de l'investissement. Les queues épaisses que vous avez trouvées montrent qu'il était dangereux d'investir en raison de la volatilité de la variance. Et pour l'avenir ? Quel est le pouvoir prédictif de vos résultats ?

3) le % de bénéfice théorique sur lequel on va capitaliser. J'ai regardé les cotations (je ne comprends pas la fin ou le début de 2010) : le début 1.1600, la fin 1.1500 - 100 pips. Le drawdown à 1.2700=2300 (3300) pips.

Conclusion : toutes les théories en dehors du système de trading du futur n'ont aucun sens.

Pour le commerce, le côté droit du quotient est intéressant.

Et la première question : combien de barres précédentes sont nécessaires pour prédire la prochaine barre avec une certaine probabilité ?

Deuxièmement : quelle analyse devez-vous faire et sur combien de barres pour étayer cette probabilité ?

Bien sûr, le pro-recteur de la Higher School of Economics n'est pas intéressé par une vision aussi terre à terre et en tant que docteur qui n'a pas perdu un centime à la bourse, il peut enseigner sérieusement les processus TS et DS aux âmes vierges, mais qu'en est-il de nous ? Soit on prévoit, soit on ne prévoit pas. Et l'analyse de 2 ans ne nous aide pas dans ce domaine. L'inertie sur laquelle nous pouvons compter dure des jours, des semaines. Les mois sont hors de portée pour nous en raison de prélèvements catastrophiques. Voici les limites.

 
faa1947: Conclusion : toutes les théories en dehors du cadre du futur système commercial sont inutiles.
Tu vois... ce qui est le plus stupide est en gras... juste pour le faire briller... ;)
 
faa1947:
Mon Dieu, j'en ai marre de ces gens intelligents des universités ! Depuis l'époque soviétique, ils ont fait des choses intelligentes, très intelligentes. Le représentant le plus brillant est Gaidar.

C'est juste une approche intéressante, le livre est purement mathématique, principalement des problèmes d'ingénierie appliquée, et bien sûr l'auteur a testé ses méthodes sur quelques indices et cotations, mais les processus sont très intéressants. Pas de vente ni d'affirmations du type "Je vais casser le Forex" ou "Je vends EA". Tout va bien.

Pourquoi je le mentionne ? C'est très simple, la classification que j'utilise pour ce "phénomène" n'est pas très correcte, et il existe une méthode intéressante, comme je le vois.

 

à IronBird

Et se pourrait-il que l'alpha soit la composante spéculative (généralement prévisible, volumes, sentiment bulls/bears, etc.), tandis que le bêta est la force majeure (imprévisible, centrale nucléaire qui explose quelque part, tsunami, etc.)

Si l'hypothèse est correcte (et en omettant les conclusions pour le moment), alors le marché (dans le sens des zones dans lesquelles le prix devrait frapper) est probablement "mené", bien que tout soit possible. Vous avez peut-être raison. Je pense que la composante spéculative du forex est de 90%, à vue de nez.

D'ailleurs... D'ailleurs, prendre des deltas de minutes et compter pour eux tous ne semble pas tout à fait correct - il y a une forte dépendance de chacun de ces deltas sur l'heure de la journée (session de trading), en fait, je vais vous dire en toute confiance - de chaque minute, même pas d'une heure ... Donc. Il faut d'abord calculer les RMS pour chaque minute de la journée pendant plusieurs années, puis normaliser tous les deltas étudiés par ces valeurs. Ce serait probablement plus correct, n'est-ce pas ?

Idée intéressante, dans notre communauté, seules quelques personnes ont étudié ces dépendances, c'est Yurixx et quelqu'un d'autre. Je ne me souviens même plus. Mais nous devons y réfléchir, c'est peut-être un facteur supplémentaire important.

 

à Neutron

Итак, Серый, что дальше?

Attends, maintenant je dois donner un sens à tout ça... Je vais rassembler mon astrolabe, vérifier quelque chose et poster le résultat. (Probablement pas avant lundi).