Régression bayésienne - Est-ce que quelqu'un a fait un EA en utilisant cet algorithme ? - page 39
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
C'est à cela que vous devez penser - pour que les données soient similaires - vous devriez prendre un modèle, à mon avis, plutôt qu'une simple fenêtre de n barres.
Je discutais récemment avec des collègues de l'histoire et du développement de la régression linéaire. Pour faire court, au départ, il y avait peu de données et peu de prédicteurs. Régression linéaire ordinaire gérée avec quelques hypothèses. Puis, avec le développement des technologies de l'information, la quantité de données a augmenté et le nombre de prédicteurs pouvait facilement dépasser des dizaines de milliers. Dans ces conditions, la régression linéaire ordinaire ne sera d'aucune aide - sur-apprentissage. Ainsi sont apparues des versions régularisées, des versions robustes aux exigences des distributions, etc.
C'est en partie correct. La régularisation L2 ne permet pas de réduire le nombre de prédicteurs dans le modèle. Dans la neuro-informatique, on a d'abord utilisé la règle d'apprentissage de Hebb, qui a conduit à une croissance illimitée des poids des réseaux neuronaux. Puis, réalisant que le cerveau dispose de ressources limitées pour faire croître et maintenir les poids des sous-unités neuronales, la régularisation L2 a été ajoutée dans les années 60 et 80. Cela a permis de limiter les pondérations, mais il y avait encore beaucoup de pondérations négligeables. Ce n'est pas le cas dans le cerveau. Dans le cerveau, les neurones ne sont pas connectés à tous les autres neurones, même si c'est par des poids négligeables. Le nombre de connexions est limité. Puis, dans les années 2000, des régularisations L1 et L0 ont été introduites, permettant des connexions déchargées. Des foules de scientifiques ont commencé à utiliser la programmation linéaire avec régularisation L1 pour tout, du codage d'images aux modèles neuronaux, qui décrivaient assez bien les processus cérébraux. Les économistes sont toujours à la traîne par rapport au reste des sciences en raison de leur "arrogance" (tout a déjà été inventé avant nous) ou simplement d'une mauvaise compréhension des mathématiques.
Les économistes sont toujours à la traîne par rapport au reste des sciences en raison de leur "arrogance" (tout a déjà été inventé avant nous) ou simplement d'une mauvaise compréhension des mathématiques.
Oui. J'ai personnellement parlé à un gestionnaire (gestionnaire de swd) qui travaillait auparavant pour un courtier en bourse. Il a dit que les augmentations de prix sont considérées comme normales et c'est tout. Les méthodes et les idées fausses du siècle dernier sont utilisées. Je lui ai dit qu'il n'y avait pas de normalité là-bas. Pas un seul test ne passe. Il ne sait même pas de quoi on parle. Mais ce n'est pas un mathématicien pur et dur, c'est un responsable du développement.
Et s'il n'y a pas de normalité ? Même le responsable d'un certain développement en parle, Vladimir en a parlé ici. Comment pouvez-vous même utiliser la régression si vous ne comprenez pas du tout ses principes ou sa signification ? Vous vous promenez comme un zombie dans la nuit noire avec cette normalité/normalité. Il peut s'agir d'une distribution en cubes, en carrés, en zigzags ou sous la forme d'une image de Repin. La capacité à prédire la régression n'en dépend pas.
Tout à fait d'accord. Le nombre de barres à analyser est le talon d'Achille non seulement des régressions en question. Cependant, je ne veux pas calculer la régression, mais les probabilités en utilisant la formule de Bayes. Pour l'instant, je vais bêtement prendre la fenêtre actuelle de n barres. Et au stade des tests et des essais, pour la fonction de vraisemblance et les probabilités a priori, je vais prendre les périodes de pic de volatilité à pic de volatilité. Il s'agit généralement de l'intervalle entre deux événements d'actualité importants.
Et la probabilité va exprimer quoi, la prévision pour la prochaine barre, ou le vecteur de mouvement des prochaines barres ?
Tout d'abord, nous devons décider de l'objectif de la construction de la régression : choisir une courbe qui décrirait le plus précisément le bloc sélectionné du marché, ou prédire la position future du prix ? Comment la qualité de l'approximation peut-elle déterminer la précision de la prévision ?
Et comment construire une courbe qui soit aussi précise que possible pour décrire le passé et aussi précise que possible pour prédire l'avenir ?
Ou comment peut-on prédire l'avenir sans analyser le passé ?
L'approximation est l'analyse du passé