L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3095
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Il se peut que nous mettions à la disposition du public un paquetage déjà écrit pour R. Nous devrions le réviser et ajouter les fonctionnalités manquantes. Nous devrions le réviser et ajouter les fonctionnalités manquantes.
Ce serait une très bonne décision. Je suis prêt à participer aux tests si nécessaire.
Bonne chance !
Ce serait une très bonne solution. Je suis prêt à participer aux tests si nécessaire.
Bonne chance
un véhicule est impliqué dans une expérience
Je me bats depuis longtemps avec l'overfit et j'ai murmuré à plusieurs reprises - jetez un coup d'œil à kozul. Toutes ces techniques viennent de là, Prado s'en est inspiré (en partie).
C'est une généralisation des statistiques au ML.
On peut inférer des modèles selon un critère donné (trittement). Il s'agit d'éliminer les biais et la variance dans les données pour mieux travailler sur de nouvelles données.Avec la méthode proposée dans l'article, il n'est pas possible de passer par différents modèles pour choisir le meilleur (style ptu). C' est https://en.wikipedia.org/wiki/Multiple_comparisons_problem.
Je suis toujours curieux d'avoir plus de détails... comment proposez-vous de sélectionner un modèle avec lequel travailler parmi des milliers d'options ?
Ce paquet évalue plutôt la possibilité d'entraîner avec succès la cible sélectionnée sur les prédicteurs sélectionnés. Si la plupart des modèles réussissent, le modèle sélectionné a toutes les chances de réussir également.
Il n'y a pas de sélection d'un modèle particulier (si j'ai bien compris). Il doit être sélectionné par une autre méthode, qui n'est pas abordée dans l'article. Et il y a beaucoup de mises en garde et de restrictions (quelques pages), dont certaines que j'ai relatées.
Les modèles sont différents, parce qu'ils ont des paramètres d'indicateurs différents. Mais l'ensemble des indicateurs peut être le même. Je pense que c'est là que réside la confusion.
On peut dire que la stratégie est la même, mais que les modèles (variantes) sont différents.
Néanmoins, je suis curieux d'avoir plus de détails... comment proposez-vous de sélectionner un modèle à utiliser parmi des milliers d'options ?
Ce logiciel évalue plutôt la probabilité d'entraîner avec succès la cible sélectionnée sur les prédicteurs sélectionnés. Si la plupart des modèles réussissent, le modèle sélectionné a toutes les chances de réussir également.
Il n'y a pas de sélection d'un modèle particulier (d'après ce que j'ai compris). Il doit être sélectionné par une autre méthode, qui n'est pas abordée dans l'article. Et il y a beaucoup de mises en garde et de restrictions (quelques pages), dont certaines que j'ai relatées.
Les modèles sont différents, parce qu'ils ont des paramètres d'indicateurs différents. Mais l'ensemble des indicateurs peut être le même. Je pense que c'est là que réside la confusion.
On ne peut choisir que parmi les bons, si tous sont bons. Si vous posez la question du choix de cette manière, ou avec un certain intervalle de confiance, tous sont bons. Sinon, c'est le problème ci-dessus, qui demande plus d'efforts.
Je ne sais pas qui fait quoi exactement, donc la question est vague pour moi.
je fais des expériences, j'écris du code...
J'ai essayé, ça marche, puis je réfléchis à quels TC il est préférable d'utiliser, etc.
Et vous passerez encore un an à discuter de théorie, puis vous abandonnerez, et ce sera la fin.
Mais je ne comprends pas comment ils procèdent à la validation croisée sans entraînement. Ils se contentent d'alimenter un ensemble de retours prêts à l'emploi et le mélangent ensuite à 12 000 variantes. Il devrait être entraîné sur chacun des 12 000 IS et prédit sur chaque OOS correspondant.
À mon avis, c'est l'une des options permettant d'évaluer la rectitude de la courbe d'équilibre sur le plateau.
Étant donné que nous éliminons le biais (c'est l'élément principal) et la variance grâce à la validation croisée, le modèle commence à se comporter de manière +- adéquate sur les nouvelles données. Il peut alors être affiné.
Vous pouvez également l'utiliser dans le cadre de vos activités commerciales.