Régression bayésienne - Est-ce que quelqu'un a fait un EA en utilisant cet algorithme ? - page 39

 
-Aleks-:
C'est à cela que vous devez penser - pour que les données soient similaires - vous devriez prendre un modèle, à mon avis, plutôt qu'une simple fenêtre de n barres.
Je suis tout à fait d'accord. Le nombre de barres à prendre pour l'analyse est le talon d'Achille non seulement des régressions discutées. Bien que je veuille calculer non pas la régression, mais les probabilités en utilisant la formule de Bayes. Pour l'instant, je vais bêtement prendre la fenêtre actuelle de n barres. Et au stade des tests et des essais, pour la fonction de vraisemblance et les probabilités a priori, je vais prendre les périodes de pic de volatilité à pic de volatilité. Il s'agit généralement de l'intervalle entre deux événements d'actualité importants.
 
Alexey Burnakov:
Je discutais récemment avec des collègues de l'histoire et du développement de la régression linéaire. Pour faire court, au départ, il y avait peu de données et peu de prédicteurs. Régression linéaire ordinaire gérée avec quelques hypothèses. Puis, avec le développement des technologies de l'information, la quantité de données a augmenté et le nombre de prédicteurs pouvait facilement dépasser des dizaines de milliers. Dans ces conditions, la régression linéaire ordinaire ne sera d'aucune aide - sur-apprentissage. Ainsi sont apparues des versions régularisées, des versions robustes aux exigences des distributions, etc.
C'est en partie correct. La régularisation L2 ne permet pas de réduire le nombre de prédicteurs dans le modèle. La neuro-informatique utilisait initialement la règle d'apprentissage de Hebb, qui conduisait à une croissance illimitée des poids des réseaux neuronaux. Puis, réalisant que le cerveau dispose de ressources limitées pour faire croître et maintenir les poids des sous-unités neuronales, la régularisation L2 a été ajoutée dans les années 60 et 80. Cela a permis de limiter les pondérations, mais il y avait encore beaucoup de pondérations négligeables. Ce n'est pas le cas dans le cerveau. Dans le cerveau, les neurones ne sont pas connectés à tous les autres neurones, même si c'est par des poids négligeables. Le nombre de connexions est limité. Puis, dans les années 2000, des régularisations L1 et L0 ont été introduites, permettant des connexions déchargées. Des foules de scientifiques ont commencé à utiliser la programmation linéaire avec régularisation L1 pour tout, du codage d'images aux modèles neuronaux qui décrivaient assez bien les processus cérébraux. Les économistes sont toujours à la traîne par rapport au reste des sciences en raison de leur "arrogance" (tout a déjà été inventé avant nous) ou simplement de leur mauvaise compréhension des mathématiques.
 
Vladimir:
C'est en partie correct. La régularisation L2 ne permet pas de réduire le nombre de prédicteurs dans le modèle. Dans la neuro-informatique, on a d'abord utilisé la règle d'apprentissage de Hebb, qui a conduit à une croissance illimitée des poids des réseaux neuronaux. Puis, réalisant que le cerveau dispose de ressources limitées pour faire croître et maintenir les poids des sous-unités neuronales, la régularisation L2 a été ajoutée dans les années 60 et 80. Cela a permis de limiter les pondérations, mais il y avait encore beaucoup de pondérations négligeables. Ce n'est pas le cas dans le cerveau. Dans le cerveau, les neurones ne sont pas connectés à tous les autres neurones, même si c'est par des poids négligeables. Le nombre de connexions est limité. Puis, dans les années 2000, des régularisations L1 et L0 ont été introduites, permettant des connexions déchargées. Des foules de scientifiques ont commencé à utiliser la programmation linéaire avec régularisation L1 pour tout, du codage d'images aux modèles neuronaux, qui décrivaient assez bien les processus cérébraux. Les économistes sont toujours à la traîne par rapport au reste des sciences en raison de leur "arrogance" (tout a déjà été inventé avant nous) ou simplement d'une mauvaise compréhension des mathématiques.
Je ne pouvais que confondre L2 avec les poids limites. Et c'est une régression de crête (Tikhonov). https://www.quora.com/What-is-the-difference-between-L1-and-L2-regularization

Mais parfois, L1 devient préférable aussi à cause de l'ajout de la pénalisation des erreurs absolues et des non carrés. Les carrés d'erreurs peuvent donner des queues trop longues, c'est-à-dire que dans le cas de citations qui ont des queues lourdes, l'ajout de carrés de résidus peut avoir un mauvais effet sur la qualité du modèle. Eh bien, ce ne sont que des paroles.
 
Vladimir:
Les économistes sont toujours à la traîne par rapport au reste des sciences en raison de leur "arrogance" (tout a déjà été inventé avant nous) ou simplement d'une mauvaise compréhension des mathématiques.
Oui. J'ai personnellement parlé à un gestionnaire (gestionnaire de swd) qui travaillait auparavant pour un courtier en bourse. Il a dit que les augmentations de prix sont considérées comme normales et c'est tout. Les méthodes et les idées fausses du siècle dernier sont utilisées. Je lui ai dit qu'il n'y avait pas de normalité là-bas. Pas un seul test ne passe. Il ne sait même pas de quoi on parle. Mais ce n'est pas un mathématicien pur et dur, c'est un responsable du développement.
 
Je soupçonne que la ligne de l'indicateur (si l'on ne va pas trop loin, le même mashka, par exemple) est grossièrement une ligne de régression. Au moins, c'est une approximation grossière
 
Alexey Burnakov:
Oui. J'ai personnellement parlé à un gestionnaire (gestionnaire de swd) qui travaillait auparavant pour un courtier en bourse. Il a dit que les augmentations de prix sont considérées comme normales et c'est tout. Les méthodes et les idées fausses du siècle dernier sont utilisées. Je lui ai dit qu'il n'y avait pas de normalité là-bas. Pas un seul test ne passe. Il ne sait même pas de quoi on parle. Mais ce n'est pas un mathématicien pur et dur, c'est un responsable du développement.
Et s'il n'y a pas de normalité ? Même un responsable du développement l'écrit, Vladimir l'a écrit ici. Comment utiliser la régression si vous ne comprenez pas ses principes ou sa signification ? Vous vous promenez comme un zombie dans la nuit noire avec cette normalité/normalité. Il peut s'agir d'une distribution en cubes, en carrés, en zigzags ou sous la forme d'une image de Repin. La capacité à prédire la régression ne dépend pas de cela.
 
Dmitry Fedoseev:
Et s'il n'y a pas de normalité ? Même le responsable d'un certain développement en parle, Vladimir en a parlé ici. Comment pouvez-vous même utiliser la régression si vous ne comprenez pas du tout ses principes ou sa signification ? Vous vous promenez comme un zombie dans la nuit noire avec cette normalité/normalité. Il peut s'agir d'une distribution en cubes, en carrés, en zigzags ou sous la forme d'une image de Repin. La capacité à prédire la régression n'en dépend pas.
C'est pour ça que c'est le cas. C'est plus facile de penser la nuit. Même les cadres le savent. )
 
Yuri Evseenkov:
Tout à fait d'accord. Le nombre de barres à analyser est le talon d'Achille non seulement des régressions en question. Cependant, je ne veux pas calculer la régression, mais les probabilités en utilisant la formule de Bayes. Pour l'instant, je vais bêtement prendre la fenêtre actuelle de n barres. Et au stade des tests et des essais, pour la fonction de vraisemblance et les probabilités a priori, je vais prendre les périodes de pic de volatilité à pic de volatilité. Il s'agit généralement de l'intervalle entre deux événements d'actualité importants.

Et la probabilité va exprimer quoi, la prévision pour la prochaine barre, ou le vecteur de mouvement des prochaines barres ?

 
En général, il faut d'abord définir l'objectif de la régression : trouver une courbe qui décrirait le plus précisément la tranche de marché sélectionnée, ou prédire la position future des prix ? Comment la qualité de l'approximation peut-elle déterminer la précision de la prévision ?
 
Vasiliy Sokolov:
Tout d'abord, nous devons décider de l'objectif de la construction de la régression : choisir une courbe qui décrirait le plus précisément le bloc sélectionné du marché, ou prédire la position future du prix ? Comment la qualité de l'approximation peut-elle déterminer la précision de la prévision ?

Et comment construire une courbe qui soit aussi précise que possible pour décrire le passé et aussi précise que possible pour prédire l'avenir ?

Ou comment peut-on prédire l'avenir sans analyser le passé ?

L'approximation est l'analyse du passé