L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2706
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je lis ici, je vois que chacun comprend ses propres conversations...
Vous ne pouvez pas comparer les méthodes de génération de traits parce que je n'ai pas encore créé un système en code. Ce qui peut être comparé, c'est votre système avec mon ensemble de prédicteurs et mon système/ma méthodologie pour les sélectionner.
N'importe qui peut obtenir des données à partir de l'intervalle historique du serveur MQL - vous voulez un historique continu. Mais l'échantillon final sur lequel l'entraînement doit être effectué sera un échantillon de chaînes de valeurs plus petites, mais avec des prédicteurs supplémentaires.
L'Expert Advisor que je propose d'utiliser enregistrera les prédicteurs ouverts et à la fin du fichier csv il y aura des colonnes avec le résultat financier et l'objectif - vous pouvez prendre des informations sur le temps de déclenchement de la "règle initiale"/fonction d'activation à partir de là, donc il n'y a pas besoin de reproduire l'algorithme dans R.
Je suggère l'intervalle de temps - de 2010 à 2020 - pour l'entraînement, le reste du temps pour tester les résultats en dehors de l'entraînement.
Lorsque vous créez vos prédicteurs, vous pouvez sauvegarder le résultat en csv - et je le ferai. En outre, vous pouvez fusionner les colonnes et étudier sur différentes plages ou juste séparément - c'est nécessaire pour comparer l'exactitude de la synchronisation.
Je peux vous envoyer un simple balisage, si vous ne voulez pas vous en occuper du tout.
Vous ne pouvez pas comparer les méthodes de génération de caractéristiques, car je n'ai pas encore créé de système en code. Vous pouvez comparer votre système avec mon ensemble de prédicteurs et le système/la méthode de leur sélection.
N'importe qui peut obtenir des données à partir de l'intervalle historique du serveur MQL - vous voulez un historique continu. Mais l'échantillon final, qui sera utilisé pour la formation, sera un ordre de grandeur plus petit que les chaînes d'exemples, mais avec des prédicteurs supplémentaires.
L'Expert Advisor que je propose d'utiliser enregistrera les prédicteurs ouverts et à la fin du fichier csv il y aura des colonnes avec le résultat financier et l'objectif - vous pouvez prendre des informations sur le temps de déclenchement de la "règle initiale"/fonction d'activation à partir de là, donc il n'y a pas besoin de reproduire l'algorithme dans R.
Je suggère l'intervalle de temps - de 2010 à 2020 - pour la formation, le reste du temps pour la vérification des résultats en dehors de la formation.
Lorsque vous créez vos prédicteurs, vous pouvez sauvegarder le résultat en csv - et c'est ce que je vais faire. Vous pouvez soit fusionner les colonnes et étudier sur différentes plages, soit les étudier séparément - vous en avez besoin pour comparer l'exactitude de la synchronisation.
Je peux vous envoyer un simple balisage, si vous ne voulez pas vous en occuper du tout.
Revenons à la logique
il peut y avoir beaucoup d'attributs différents et ils peuvent être informatifs ou non, cela dépend de leur relation avec la cible.
Quelle est la différence entre une relation et une adéquation ? Le degré de dépendance informative exprimé par une certaine mesure.
plus la dépendance informative des étiquettes par rapport à chaque caractéristique individuelle est faible, plus le nombre de caractéristiques nécessaires à l'apprentissage est important.
L'augmentation du nombre de caractéristiques conduit à l'ajustement, car le système commence à avoir beaucoup de paramètres libres.
Quelle est la seule approche correcte dans ce cas ? Minimiser le nombre de caractéristiques tout en augmentant leur ratio par rapport aux caractéristiques cibles.
C'est pourquoi il est nécessaire de bombarder non seulement les caractéristiques, mais aussi les caractéristiques cibles, en fonction d'un critère de liaison de l'information.
Si quelqu'un veut travailler dans cette direction, je l'aiderai avec le code.Revenons à la logique
il peut y avoir de nombreux attributs différents et ils peuvent être informatifs ou non, cela dépend de leur relation avec les attributs cibles.
Quelle est la différence entre une relation et une adéquation ? Le degré de dépendance informative exprimé par une certaine mesure.
plus la dépendance informative des étiquettes par rapport à chaque caractéristique individuelle est faible, plus le nombre de caractéristiques nécessaires à l'apprentissage est important.
L'augmentation du nombre de caractéristiques conduit à l'ajustement, car le système commence à avoir beaucoup de paramètres libres.
Quelle est la seule approche correcte dans ce cas ? Minimiser le nombre de caractéristiques tout en augmentant leur ratio par rapport aux caractéristiques cibles.
C'est pourquoi il est nécessaire de bombarder non seulement les caractéristiques, mais aussi les caractéristiques cibles, en fonction d'un critère de liaison de l'information.
Si quelqu'un veut travailler dans cette direction, je l'aiderai avec le code.Bien sûr, je suis d'accord avec la logique, c'est pourquoi j'ai suggéré plus tôt d'identifier les prédicteurs au hasard et de les utiliser ensuite pour le balisage.
Pour moi, ces points qui ont une capacité prédictive sont des événements, que je pense généralement à former séparément, ou à en séparer les feuilles, puis à exécuter toute procédure de formation cumulative.
Un tel événement peut être considéré comme un système de négociation distinct et le comportement/l'efficacité de ces systèmes peut être analysé.
Pour moi, le problème du netting est la comptabilité indépendante de ces événements, c'est-à-dire un support virtuel qui fonctionnerait correctement sur des données réelles avec une perte de communication et d'autres plaisirs.
Les méthodes de génération de fonctionnalités ne peuvent pas être comparées car je n'ai pas encore créé le système en code.
Comparez donc les méthodes de génération de prédicteurs par des humains et des machines :)
Comparez donc les méthodes de génération de prédicteurs par l'homme et la machine :)
Que faites-vous donc dans cette affaire ?
Juste pour clarifier, mes prédicteurs générés.
Plus précisément, mes prédicteurs générés.
Bien sûr, je suis d'accord avec la logique, c'est pourquoi j'ai suggéré plus tôt d'identifier les prédicteurs au hasard et de les utiliser ensuite pour le balisage.
Pour moi, ces points qui ont une capacité prédictive sont des événements que je pense généralement à former séparément, ou à séparer les feuilles d'eux, puis à exécuter toute procédure de formation agrégée.
Un tel événement peut être considéré comme un système de négociation distinct et le comportement/l'efficacité de ces systèmes peut être analysé.
Pour moi, le problème du netting est la comptabilité indépendante de ces événements, c'est-à-dire un support virtuel qui fonctionnerait correctement sur des données réelles avec une perte de communication et d'autres plaisirs.
Vous pensez vraiment qu'il y a de la valeur là-dedans ?
Bien sûr qu'il y en a. Vous pouvez voir quel type de gain votre méthode vous apporte. Peut-être qu'il est si insignifiant qu'il ne sert à rien de le mettre en œuvre, ou inversement.