L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2809
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
La lib ne prend-elle pas en compte le type de données ? Le type de données est comme les données pour les calculs les moins chers. La même matrice devrait être conçue pour les calculs.
Je n'ai pas trouvé d'analogue de numpy pour R, et les matrices n'y sont pas très rapides et R lui-même consomme beaucoup de mémoire en raison de son paradigme.
Bien sûr, une librairie tierce peut être lente, qui la vérifierait ?
Je ne sais pas avec quoi comparer, donc je ne veux pas charger un jeu de données d'un gigaoctet pour comparer la vitesse.Pas du tout.
Et l'apprentissage par renforcement ?
Le topkstarter a écrit un article sur DQN sur hubr sur R.
Il faut comprendre que l'apprentissage par renforcement n'est qu'une optimisation délicate.
Il peut fonctionner dans certains cas, mais pas forcément.
Je n'arrive pas à trouver un analogue de numpy pour R..
..
Je voulais alléger les souffrances d'Alexey ) C'est certainement plus facile dès le départ... mais quand même.
Le topikstarter a écrit un article sur DQN sur le hub de R
il faut comprendre que l'apprentissage par renforcement n'est qu'une optimisation intelligemment conçue
Il peut fonctionner dans certains cas, il peut ne pas fonctionner.
Eh bien, dans le contexte de la question de la mémoire.
Elle peut ajuster les états aux nouvelles données, mais c'est au niveau ou comme Mashka, c'est-à-dire avec un décalage.
Il est plus important de choisir une récompense, une cible, en fait. Et il lancera les transactions dans différentes directions et à chaque itération, il s'améliorera de plus en plus.
Je voulais alléger les souffrances d'Alexey ) C'est certainement plus facile dès le départ... mais quand même
il peut ajuster les états en fonction de nouvelles données, mais il s'agit toujours d'un niveau ou d'une méthode de type Mashka, c'est-à-dire d'une méthode décalée.
Il est plus important de sélectionner la récompense, c'est-à-dire la cible, par essence. Les offres seront lancées d'elles-mêmes dans différentes directions et, à chaque itération, elles s'amélioreront de plus en plus.
La mémoire est une NS avec des poids entraînés, vous l'entraînez à chaque étape, vous déplacez les poids un peu... pas beaucoup, c'est pourquoi il y a un décalage.
et on ne peut pas vraiment transférer cela au terminal.
La mémoire est une NS avec des poids formés, vous la ré-entraînez à chaque étape, déplacez les poids un peu... pas beaucoup, donc le décalage .