L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3177
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Cette fonctionnalité n'a jamais été utilisée auparavant.
Qu'en est-il de cette fonction ?
Oui
Oui
Je dois générer un binaire cible pour un échantillon, disons, et voir combien de fois des segments quantiques seront trouvés par ma méthode pour différents prédicteurs, et ainsi 10 fois ?
Si le nombre de segments quantiques trouvés est en moyenne le même que pour tous les prédicteurs, alors la méthode ne fonctionne pas, ai-je bien compris ?
Tail et les autres paramètres de la série resteront les mêmes. Je pense que c'est un avantage.
Nous risquons de nous enliser à nouveau dans des arguments inutiles. Quelle est la différence entre un ensemble trouvé au hasard qui fonctionne sur oos et un ensemble inventé dans la plus grande souffrance mentale, mais aussi sans justification fondamentale ? Lorsque la méthode de validation est la même. Question rhétorique.
Quelle est la différence entre une recherche aléatoire et une recherche avec un élément de choix aléatoire ? ))L'objectif est de détecter les infractions aux règles et, pour ce faire, vous devez savoir à quoi elles ressemblent sous leur forme correcte. En d'autres termes, quelles caractéristiques statistiques descriptives peuvent indiquer qu'il s'agit bien d'un modèle. Si vous les connaissez, tout écart par rapport à ces règles sera un signal d'arrêt du modèle.
L'assemblage d'un modèle à partir de ces règles semble être une solution plus stable que l'assemblage d'éléments purement aléatoires.
Quelques règles qui génèrent les principaux bénéfices peuvent être intégrées au hasard, mais le marché peut alors les oublier pendant un certain temps. Avec l'aléatoire, il est plus probable de paniquer et d'éteindre le modèle au début d'une baisse, mais avec l'approche que je suggère - attendre que l'ordre des règles change, c'est-à-dire qu'une baisse soit reconnue comme un phénomène normal.
Et l'effet décrit ci-dessus peut être clairement vu sur les gifs que j'ai faits, où dans un cas l'échantillon de test en plus, et dans un autre cas - bien que les règles soient toutes prises de l'échantillon de train, mais leur apparence (les règles) n'est pas uniforme dans le temps.
L'avantage de cette approche, dans l'idéal, est d'éviter complètement l'échantillonnage d'examen.
Une alternative pourrait être l'estimation de modèles profonds - il y a aussi des travaux dans cette direction.
Par conséquent, en utilisant uniquement un modèle aléatoire :
1. Nous ne savons pas pourquoi cela fonctionne.
2. Nous ne savons pas pourquoi il a cessé de fonctionner.
3. nous ne savons pas comment le "réparer".
4. Nous ne savons pas s'il est temps d'arrêter les échanges.
5. La durée de vie d'un modèle aléatoire sera plus courte parce qu'il contient des règles erronées.
Au niveau de la randomisation, j'obtiens personnellement à peu près ce qui suit - sur 100 modèles 30 sur 30 sont sélectionnés dans la moitié d'une année dans la zone rentable environ 10. Je veux au moins 50% à 50%, ensuite on peut faire des fichiers partiels.
Ne suffirait-il pas de mélanger la colonne avec la colonne cible ?
Tail et les autres paramètres de la série resteront les mêmes. Je pense que c'est un avantage.
Pouvez-vous développer - je ne comprends pas.
La question était rhétorique
Vous n'avez pas besoin de comprendre ce que j'explique, et c'est pourquoi je n'ai pas envie de gaspiller de l'énergie à réexpliquer. Restez avec votre opinion sur l'identité du résultat avec différentes approches.
Vous n'avez pas besoin de comprendre ce que j'explique, et c'est pourquoi je n'ai pas envie de gaspiller de l'énergie dans une explication répétée. Restez avec votre opinion sur l'identité du résultat dans les différentes approches.
Je dois générer un binaire cible pour un échantillon, disons, et voir combien de fois des segments quantiques seront trouvés par ma technique pour différents prédicteurs, et ainsi 10 fois ?
Si le nombre de segments quantiques trouvés est en moyenne le même que pour tous les prédicteurs, alors la méthode ne fonctionne pas, ai-je bien compris ?
Oui, il s'agit de répéter votre procédure de nombreuses fois sur un grand nombre de problèmes manifestement dénués de sens. Voyez ensuite comment l'application sur des données réelles spécifiques se présente par rapport à ces problèmes - si elle ne ressort pas beaucoup, c'est que la méthode est mauvaise. En général, on formalise en comptant un certain nombre pour chaque application de la méthode et en tirant un échantillon, puis on regarde si le nombre calculé sur les données réelles tombe loin dans sa queue - si c'est le cas, alors c'est bon.
Voici, car si vous ne recevez pas de modèle dans la série originale, le chemin hilbertien ne vous mènera pas au but que vous chérissez. Vos efforts se transformeront en diablerie, et vous trouverez un ignoble massacre au lieu du paradis.
Le problème des sectaires est la peur de tester leurs dogmes religieux.
Il existe toujours de nombreux modèles - la question est de savoir quel est le bon choix.