L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3215
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Martin.
Si la tendance est à l'absence de recul, le martin fonctionnera-t-il ? et pourquoi pas ?
C'est une philosophie.
1)si un algorithme gagne de l'argent sur le marché pendant une longue période, c'est une régularité, non ?
2)et si vous superposez un autre algorithme à cet algorithme, qui va observer le premier algorithme et collecter des statistiques sur lui et donner des signaux de trading et gagner de l'argent.
Il s'agit alors déjà d'une philosophie, et non d'un modèle, selon vous.
C'est exactement ce que j'ai décrit avec l'exemple d'un trader...
Vous dites donc qu'il s'agit d'une philosophie et non d'un modèle.
Je vois une perte de temps mutuelle. Je suis sûr que si nous parlions en face l'un de l'autre, la probabilité d'une compréhension mutuelle serait proche de un.
La superposition de quelque chose sur les résultats du CT est une pratique normale. Les filtres sont les plus courants. Moins souvent - les MM (par exemple, un filtre sur la courbe d'équilibre : si vous déviez plus fortement, vous modifiez les MM plus fortement). Encore plus rare : la recherche de régularités dans les résultats des transactions.
Je vois une perte de temps mutuelle. Je suis sûr que si nous parlions en face l'un de l'autre, la probabilité d'une compréhension mutuelle serait proche de un.
La proposition d'organiser une conférence aux Émirats arabes unis est toujours d'actualité.)
Je vois une perte de temps mutuelle. Je suis sûr que si nous parlions en face l'un de l'autre, la probabilité d'une compréhension mutuelle serait proche de un.
Je suis d'accord
il fait une faute d'orthographe. OOS - test, validation - deuxième sous-échantillon (avec traine) pour l'évaluation du modèle (validation).
Le sous-échantillon de validation peut être égal au sous-échantillon de test ou séparé.
Cette séparation s'explique par le fait que les OI utilisent souvent le deuxième sous-échantillon pour interrompre la formation prématurément. On pourrait dire qu'il s'agit d'un ajustement, dans un sens.
C'est pourquoi ils utilisent trois sous-échantillons, dont l'un ne participe pas du tout à la formation.Validation - confirmation de la validité. Oui/Non. L'évaluation est une chose assez délicate à faire pour un modèle de qualité d'ajustement.))) évaluations pour la qualité d'ajustement, donc))
La conversation porte sur les termes et leur signification, je pense.)
Validation - confirmation de la validité. Oui/Non. L'évaluation est un point un peu délicat pour un modèle d'adéquation aux objectifs.))))) évaluations pour l'adéquation aux objectifs).
La conversation porte sur les termes et leur signification, je pense).
La validation précède l'évaluation, ou elle inclut l'évaluation, comme vous voulez. Ce n'est pas le but recherché.
et ce que vous auriez dû dire, c'est que les MOS sont des sous-échantillons qui prêtent à confusion :)) Mais ils produisent de multiples théories utopiques du marché à l'échelle industrielle.
Puisque notre objectif est de trouver le réseau le plus performant sur de nouvelles données, l'approche la plus simple pour comparer différents réseaux est d'estimer la fonction d'erreur sur des données indépendantes de celles utilisées pour l'apprentissage. Différents réseaux sont formés en minimisant la fonction d'erreur correspondante définie par rapport à l'ensemble de données de formation. Les performances des réseaux sont ensuite comparées en évaluant la fonction d'erreur sur un ensemble de validation indépendant, et le réseau présentant l'erreur la plus faible par rapport à l'ensemble de validation est sélectionné. Cette approche est appelée "méthode de maintien". Étant donné que cette seule procédure peut entraîner une certaine surcharge de l'ensemble de validation, les performances du réseau sélectionné doivent être validées en mesurant ses performances sur un troisième ensemble de données indépendant, appelé ensemble de test.
Une application de ce processus est l'arrêt précoce, où les modèles candidats sont des itérations successives du même réseau, et où la formation est arrêtée lorsque l'erreur sur l'ensemble de validation augmente, le modèle précédent (celui avec l'erreur minimale) étant sélectionné.
https://en.wikipedia.org/wiki/Training,_validation,_and_test_data_setsSur des données avec des modèles, cela fonctionnera.
S'il n'y en a presque pas, il y aura un ajustement au graphe sur lequel l'arrêt anticipé a été effectué + une bonne trace. Vous pourriez simplement augmenter la trace d'une section supplémentaire et obtenir à peu près le même modèle.
Pour les données présentant des motifs, cela fonctionnera.
S'il n'y en a presque pas, il y aura un ajustement au tracé sur lequel l'arrêt précoce a été effectué + une bonne trace. Vous pourriez simplement augmenter la trace d'une section supplémentaire et obtenir à peu près le même modèle.
C'est une autre question.
C'est ce que je soulevais.
C'est ce qu'il soulevait.