L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3177

 
Aleksey Vyazmikin #:

Cette fonctionnalité n'a jamais été utilisée auparavant.

Qu'en est-il de cette fonction ?

Oui

 
Aleksey Nikolayev #:

Oui

Je dois générer un binaire cible pour un échantillon, disons, et voir combien de fois des segments quantiques seront trouvés par ma méthode pour différents prédicteurs, et ainsi 10 fois ?

Si le nombre de segments quantiques trouvés est en moyenne le même que pour tous les prédicteurs, alors la méthode ne fonctionne pas, ai-je bien compris ?

 
Ne suffirait-il pas de mélanger la colonne avec la colonne cible ?
Tail et les autres paramètres de la série resteront les mêmes. Je pense que c'est un avantage.
 
Maxim Dmitrievsky #:

Nous risquons de nous enliser à nouveau dans des arguments inutiles. Quelle est la différence entre un ensemble trouvé au hasard qui fonctionne sur oos et un ensemble inventé dans la plus grande souffrance mentale, mais aussi sans justification fondamentale ? Lorsque la méthode de validation est la même. Question rhétorique.

Quelle est la différence entre une recherche aléatoire et une recherche avec un élément de choix aléatoire ? ))

L'objectif est de détecter les infractions aux règles et, pour ce faire, vous devez savoir à quoi elles ressemblent sous leur forme correcte. En d'autres termes, quelles caractéristiques statistiques descriptives peuvent indiquer qu'il s'agit bien d'un modèle. Si vous les connaissez, tout écart par rapport à ces règles sera un signal d'arrêt du modèle.

L'assemblage d'un modèle à partir de ces règles semble être une solution plus stable que l'assemblage d'éléments purement aléatoires.

Quelques règles qui génèrent les principaux bénéfices peuvent être intégrées au hasard, mais le marché peut alors les oublier pendant un certain temps. Avec l'aléatoire, il est plus probable de paniquer et d'éteindre le modèle au début d'une baisse, mais avec l'approche que je suggère - attendre que l'ordre des règles change, c'est-à-dire qu'une baisse soit reconnue comme un phénomène normal.

Et l'effet décrit ci-dessus peut être clairement vu sur les gifs que j'ai faits, où dans un cas l'échantillon de test en plus, et dans un autre cas - bien que les règles soient toutes prises de l'échantillon de train, mais leur apparence (les règles) n'est pas uniforme dans le temps.

L'avantage de cette approche, dans l'idéal, est d'éviter complètement l'échantillonnage d'examen.

Une alternative pourrait être l'estimation de modèles profonds - il y a aussi des travaux dans cette direction.

Par conséquent, en utilisant uniquement un modèle aléatoire :

1. Nous ne savons pas pourquoi cela fonctionne.

2. Nous ne savons pas pourquoi il a cessé de fonctionner.

3. nous ne savons pas comment le "réparer".

4. Nous ne savons pas s'il est temps d'arrêter les échanges.

5. La durée de vie d'un modèle aléatoire sera plus courte parce qu'il contient des règles erronées.

Au niveau de la randomisation, j'obtiens personnellement à peu près ce qui suit - sur 100 modèles 30 sur 30 sont sélectionnés dans la moitié d'une année dans la zone rentable environ 10. Je veux au moins 50% à 50%, ensuite on peut faire des fichiers partiels.

 
Forester #:
Ne suffirait-il pas de mélanger la colonne avec la colonne cible ?
Tail et les autres paramètres de la série resteront les mêmes. Je pense que c'est un avantage.

Pouvez-vous développer - je ne comprends pas.

 
Aleksey Vyazmikin #:
La question était rhétorique
Un modèle aléatoire et un modèle obtenu par force brute aléatoire sont deux grandes différences.
Vous confondez toujours vos propos, j'y suis habitué :)
Après avoir obtenu un de ces modèles, le voisinage est toujours connu, pour une analyse plus détaillée.
C'est généralement un exercice inutile, car il est plus facile d'effectuer une nouvelle recherche, mais c'est toujours une possibilité.

Si l'incertitude vous effraie tant, il existe une recherche absolument sans ambiguïté de modèles absolument sans ambiguïté dans les séries temporelles, à laquelle s'ajoute un peu de ts. Pour ce faire, il ne faut pas détruire le bon sens en reformatant les signes, mais trouver les modèles sur le PB original.
 
Maxim Dmitrievsky #:
La question était rhétorique
Un modèle aléatoire et un modèle obtenu par force brute aléatoire sont deux grandes différences.
Vous confondez toujours vos propos, j'y suis habitué :)
Après avoir obtenu un de ces modèles, le voisinage est toujours connu, pour une analyse plus détaillée.
Il s'agit généralement d'un exercice inutile, car il est plus facile d'effectuer une nouvelle recherche, mais c'est toujours une possibilité.

Si l'incertitude vous effraie tant, il existe une recherche absolument sans ambiguïté de modèles absolument sans ambiguïté dans les séries temporelles, sur laquelle une certaine tc est arrimée. Pour ce faire, il ne faut pas détruire le sens commun en reformatant les signes, mais trouver des modèles sur le PB original.

Vous n'avez pas besoin de comprendre ce que j'explique, et c'est pourquoi je n'ai pas envie de gaspiller de l'énergie à réexpliquer. Restez avec votre opinion sur l'identité du résultat avec différentes approches.

 
Aleksey Vyazmikin #:

Vous n'avez pas besoin de comprendre ce que j'explique, et c'est pourquoi je n'ai pas envie de gaspiller de l'énergie dans une explication répétée. Restez avec votre opinion sur l'identité du résultat dans les différentes approches.

Voici, si l'on ne vous donne pas un modèle dans la série originale, le chemin de Hilbert ne vous mènera pas au but que vous chérissez. Vos efforts se transformeront en diablerie, et vous trouverez un massacre ignominieux au lieu du paradis.
 
Aleksey Vyazmikin #:

Je dois générer un binaire cible pour un échantillon, disons, et voir combien de fois des segments quantiques seront trouvés par ma technique pour différents prédicteurs, et ainsi 10 fois ?

Si le nombre de segments quantiques trouvés est en moyenne le même que pour tous les prédicteurs, alors la méthode ne fonctionne pas, ai-je bien compris ?

Oui, il s'agit de répéter votre procédure de nombreuses fois sur un grand nombre de problèmes manifestement dénués de sens. Voyez ensuite comment l'application sur des données réelles spécifiques se présente par rapport à ces problèmes - si elle ne ressort pas beaucoup, c'est que la méthode est mauvaise. En général, on formalise en comptant un certain nombre pour chaque application de la méthode et en tirant un échantillon, puis on regarde si le nombre calculé sur les données réelles tombe loin dans sa queue - si c'est le cas, alors c'est bon.

 
Maxim Dmitrievsky #:
Voici, car si vous ne recevez pas de modèle dans la série originale, le chemin hilbertien ne vous mènera pas au but que vous chérissez. Vos efforts se transformeront en diablerie, et vous trouverez un ignoble massacre au lieu du paradis.

Le problème des sectaires est la peur de tester leurs dogmes religieux.

Il existe toujours de nombreux modèles - la question est de savoir quel est le bon choix.