L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2813

 
mytarmailS #:
Si je veux pénaliser un agent pour des contrats non rentables.
L'objectif est de "négocier ce que l'on veut, mais pas de transactions perdantes, et d'être présent sur le marché".

Comment décririez-vous cela avec des balises ?
Une série de marques sans perte sur l'histoire, non ? ) Étiquetez-les
Rl s'occupe de trouver le chemin optimal, si vous voulez, ou l'optimisation. Vous pouvez le faire vous-même ou par son intermédiaire. Il ne s'agit pas de trouver des modèles super-performants.

Lisez Sutton, Barto, "reinforcement learning", c'est en russe. Cela va des primitives à tout le reste. Ensuite, vous arriverez à DQN

Vous y trouverez des analogies avec l'optimisation génétique et la programmation, pour autant que je me souvienne.
 
Maxim Dmitrievsky #:
Les états de l'agent, ou les actions. Je vous suggère de passer quelques mois à lire des livres pour comprendre ce que vous avez écrit, et d'arriver aux mêmes conclusions : sans la réaction de l'environnement aux actions de l'agent, il n'y a rien à optimiser, tout se fait en une seule fois.

Il y a des états de l'environnement, des états de l'agent, des matrices de transitions (politiques) de l'agent d'un état à l'autre, en tenant compte des changements dans l'environnement. Votre environnement est statique, il ne change pas en raison des actions de l'agent. Il suffit donc de définir la matrice des actions de l'agent dans un environnement statique, c'est-à-dire les cibles. Le marquage des cibles se fait en une seule fois.
Je ne sais toujours pas comment décrire manuellement l'état de la ligne.))))))
 
Valeriy Yastremskiy #:
Je n'arrive toujours pas à décrire manuellement l'état de la ligne.))))))
Futile
 
Maxim Dmitrievsky #:
C'est futile.
Il n'y a pas d'argument, mais fascinant)))))
 
Valeriy Yastremskiy #:
Il n'y a pas d'argument, mais fascinant)))))
Il y a 2 états ici - déplacer les incréments moyens vers le haut ou vers le bas.
 
Personne n'a vu la date que j'ai fixée ?
 
Valeriy Yastremskiy #:
Je n'arrive toujours pas à décrire manuellement l'état d'une série.))))))

Je suis récemment tombé sur une vidéo expliquant l'approche markovienne de la transition d'état.
Je ne dis pas que ces états doivent être utilisés.
Il me semble simplement que vous pouvez appliquer ce concept à tous les états que vous jugez nécessaires.
Peut-être que cela vous donnera d'autres idées.



Maxim, ne te moque pas encore de moi parce que je suis hindou))
Je n'en ai pas rencontré d'autres)

 
Roman #:

Je suis récemment tombé sur une vidéo expliquant l'approche markovienne de la transition d'état.
Je ne dis pas que ces états particuliers doivent être utilisés.
Il me semble simplement que vous pouvez appliquer ce concept à tous les états qui vous conviennent.
Peut-être que cela vous donnera d'autres idées.



Maxim ne se moque pas à nouveau d'être hindou ))
Je n'ai pas trouvé d'autres idées )

Vous pouvez également trouver des articles sur la segmentation des séries temporelles. Vous pouvez remplacer clustering par clustering. Il est probablement judicieux de former des modèles différents pour chaque état, car les caractéristiques seront différentes. Fondamentalement, il s'agit du déplacement des incréments moyens, au changement desquels les modèles s'effondrent.
 
Maxim Dmitrievsky #:
Il peut être utilisé pour la segmentation. Vous pouvez remplacer le regroupement.
Non, c'est différent.

Hmm prédit la grappe dans laquelle vous vous trouvez actuellement, tandis que Clustering indique la grappe dans laquelle vous vous trouviez, a posteriori.
En d'autres termes.
 
mytarmailS #:
Vous ne pouvez pas, c'est différent.

Hmm prédit dans quel groupe vous vous trouvez actuellement, Clustering montre dans quel groupe vous vous trouviez, post factum.
C'est simple.
Et si vous y réfléchissez bien.