L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2278

 
mytarmailS:

Autant que je me souvienne, TC a travaillé pendant un certain temps et est mort...

La filtration au sens habituel (assistants, filtres, etc.) est toujours un retard, un retard dans le marché est une fuite.....

Vous devriez construire un autre paradigme (sans délais), des niveaux par exemple...

qu'est-ce qu'un retard a à voir avec ça ? c'est le même overfit, quelle différence ça fait ?

vous devez d'abord chercher un modèle

 
mytarmailS:

Qu'est-ce que vous attendez ?

J'ai ces idées, un wagon et un wagon, en attente.

Le fichier donne un exemple pour 2 micros, et il y a une autre idée pour utiliser plusieurs monnaies dans le même but.

Je dois également me pencher sur l'adaptation aux aveugles.



Visualisation de la fonction de perte

 
Maxim Dmitrievsky:

Qu'est-ce qu'un retard a à voir avec ça ? C'est le même sur-équipement, quelle différence cela fait-il de savoir comment l'enseigner ?

Vous devez chercher un modèle de furst.

C'est quoi la suralimentation d'un cardan ? Est-ce que tu lis au moins ce que je dis ?

 
elibrarius:

Y a-t-il quelque chose dans l'algorithme pour compresser et décompresser les graphiques ?

Sur l'interpolation, j'en vois plusieurs. Laquelle nous conviendra le mieux ? Et lequel est le plus rapide ?

Nous avons abandonné l'idée...

Nous avons trouvé quelque chose pour compresser et décompresser les graphiques. Quelle est la prochaine étape ? Comment l'utiliser ?

1) Reconnaître une douzaine de situations actuelles compressées, non compressées ? Et puis quoi ? Dans la moyenne ? Après tout, peut-être que 50 % des gens disent d'acheter, et 50 % disent de vendre.

2) Dans le cadre de la formation, y a-t-il un moyen de l'utiliser ? Diminuer la taille du tableau pour la formation ?

 
elibrarius:

L'idée a été abandonnée...

ça n'a pas marché pour moi...

élargi et réduit x10 fois.

déchets


il y a un autre moyen... ne pas lutter contre l'invariance mais réduire la dimensionnalité

ou l'ignorer)

 
mytarmailS:

C'est quoi l'overfit dans une mashka ? Est-ce que tu lis au moins ce que j'écris ?

utilisez votre cerveau).

l'approche de votre réseau neuronal pour traverser des périodes de temps est un simple surajustement
 
mytarmailS:

Ça n'a pas marché pour moi...

élargi - rétréci à x10 fois

déchets


il y a un autre moyen... ne pas lutter contre l'invariance mais réduire la dimensionnalité

ou la sauter)

10 fois, c'est trop.

Je pense que vous n'avez pas besoin de plus de 50%. Essayez, par exemple, 1,1, 1,3, 1,5 fois.


Si vous disposez d'un code prêt à l'emploi et que vous devez uniquement modifier le multiplicateur, vérifiez les options suivantes

 
mytarmailS:

Ça n'a pas marché pour moi...

élargi - rétréci à x10 fois

déchets


il y a un autre moyen... ne pas lutter contre l'invariance mais réduire la dimensionnalité

ou l'oublier)

Avez-vous essayé le point 1 ? En d'autres termes, avez-vous introduit plusieurs variantes de la situation actuelle mise à l'échelle dans le modèle lors de la prévision ?
 
Maxim Dmitrievsky:

allumez votre cerveau).

l'approche de votre réseau neuronal consistant à écraser les périodes de MA est un simple surajustement.

Je ne l'ai pas éteint...

Le réseau contrôle la période d'agitation, la période est de 2 à 500 je pense...

une période de2 à 500 équivaut à un retardde 2 à 500

Que le réseau soit surajusté ou non n'est pas la question... Le point est qu'il contrôle la période et la période == décalage

elibrarius:
Avez-vous essayé l'étape 1 ? Par exemple, lors d'une prévision, avez-vous introduit dans le modèle plusieurs variantes à échelle de la situation actuelle ?

oui

 

Je suis très intéressé par cet algorithme SPADE, mais je ne sais pas encore comment l'aborder, cela fait six mois qu'il me trotte dans la tête...

Il n'est pas très évident de prétraiter les données pour lui, de même pour la cible + il est extrêmement gourmand en ressources, ce n'est certainement pas un algorithme "big-data"....

Mais il me semble que c'est le meilleur algorithme pour le marché de l'exploration de données.