L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2812
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Ce sujet a été abordé ici il y a plus d'un an, lorsque j'écrivais des algorithmes de NR.
Je ne veux pas revenir en arrière, et moi non plus.C'est le cas lorsqu'il y a beaucoup d'états d'agents, par exemple dans les jeux. Vous n'avez que 2 ou 3 états d'achat/vente, etc.
Non, c'est tellement primitif, sinon ce ne serait pas du tout cette direction.
L'état n'est pas un achat/vente, l'achat/vente est une action, et l'état est grosso modo le numéro de cluster de l'environnement actuel, et chaque cluster d' état a sa propre action...
Mais l'action n'a pas besoin d'êtreprimitive comme l'achat/vente, elle peut être le raisonnement de l'agent sur l'avenir pour exemple....
Par exemple, si j'achète maintenant à [i], et que sur la bougie [i+1] le prix va chuter, mais pas en dessous d'un certain prix, j'attendrai la bougie suivante [i+2], mais si le prix descend encore plus bas, je reviendrai en arrière, sinon je maintiendrai l'achat [i...20].
Il s'agit là d'un raisonnement non trivial sur l'avenir qui conduit à la découverte de la conscience poziya....
Mais il existe une myriade de combinaisons d'options de raisonnement, de sorte que nous n'avons pas à les passer toutes en revue, nous formons une fonction Q, c'est-à-dire que l'agent ne retient pour le raisonnement que les options qui ont une bonne valeur Q . Le neurone ou la matrice Q est formé avant que l'agent ne commence à raisonner sur l'avenir,
le neurone ou la matrice Q est entraîné au préalable...
C'est ainsi que je vois les choses...
La solution est simple.
)))) oui, bien sûr...
J'ai peur de ceux qui disent "c'est simple".
Non, c'est tellement primitif, sinon ce ne serait pas du tout cette direction...
l'état n'est pas un by\sel, le by\sel est une action, et l'état est grosso modo le numéro de cluster de l'environnement actuel, et chaque cluster d' état a sa propre action...
Mais l'action n'a pas besoin d'êtreprimitive comme un octet, il peut s'agir des pensées d'un agent sur l'avenir par exemple....
Par exemple, si j'achète à [i] maintenant, et que sur la bougie [i+1] le prix va chuter, mais pas en dessous d'un certain prix, j'attendrai la bougie suivante [i+2], mais si le prix descend encore plus bas, je reviendrai en arrière, sinon je garderai l'achat [i...20].
Il s'agit de raisonnements non triviaux sur l'avenir qui conduisent à la découverte de la position réalisée....
Mais il existe une myriade de combinaisons d'options de raisonnement de ce type ; pour ne pas avoir à les passer toutes en revue, nous entraînons la fonction Q, c'est-à-dire que l'agent ne prend pour raisonnement que les options qui ont une bonne valeur Q ,
Le neurone ou la matrice Q est entraîné au préalable...
C'est ainsi que je vois les choses...
Je suis d'accord, l'achat-vente-non-commerce n'est pas un état. Il existe une multitude d'états.))))))
Je suis d'accord, l'achat, la vente et non le commerce n'est pas une affaire d'Etat. Il existe un grand nombre d'États.)))))
Il n'y a pas beaucoup d'états (s'il s'agit d'une grappe).
Il y a une horde d'options pour raisonner sur les actions futures.
mais le raisonnement est nécessaire pour trouver les actions les plus correctes dans chaque état, de plus, elles doivent être revues à chaque bougie.
Non, c'est tellement primitif, sinon ce ne serait pas du tout cette direction...
l'état n'est pas un by\sel, le by\sel est une action, et l'état est grosso modo le numéro de cluster de l'environnement actuel, et chaque cluster d' état a sa propre action...
Mais l'action n'a pas besoin d'êtreprimitive comme un octet, il peut s'agir des pensées d'un agent sur l'avenir par exemple....
Par exemple, si j'achète à [i] maintenant, et que sur la bougie [i+1] le prix va chuter, mais pas en dessous d'un certain prix, j'attendrai la bougie suivante [i+2], mais si le prix descend encore plus bas, je reviendrai en arrière, sinon je garderai l'achat [i...20].
Il s'agit de raisonnements non triviaux sur l'avenir qui conduisent à la découverte de la position réalisée....
Mais il existe une myriade de combinaisons d'options de raisonnement de ce type ; pour ne pas avoir à les passer toutes en revue, nous entraînons la fonction Q, c'est-à-dire que l'agent ne prend pour raisonnement que les options qui ont une bonne valeur Q ,
Le neurone ou la matrice Q est entraîné au préalable...
C'est ainsi que je vois les choses...
Lorsque l'on commence à bien voir les choses, le facteur d'émerveillement disparaît.
Vous décrivez la politique d'un agent, une approche à plusieurs volets. J'ai tout écrit à ce sujet. J'écris dans un langage d'intello pour que ça ait du sens, et j'ai oublié.
Exactement, c'est tellement primitif.
Il y en a une ici qui écumait la bouche à propos des agents avant d'être bannie).
Je suis d'accord, l'achat, la vente et non le commerce n'est pas une affaire d'Etat. Il existe un grand nombre d'états.))))
Les états de l'agent, ou les actions. Je vous suggère de passer quelques mois à lire des livres pour comprendre ce que vous avez écrit, et d'arriver aux mêmes conclusions : sans la réaction de l'environnement aux actions de l'agent, il n'y a rien à optimiser, tout se fait en une seule fois.