L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 563
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Ouf... j'ai lu tout le fil de discussion depuis le début jusqu'à mon apparition... maintenant j'ai tout vu
mais pas de graal ici...dommage, je vais continuer à creuser alors
C'est une solution correcte. La théorie des NS, ici sur le forum, est loin d'être idéale.
La seule chose que j'ai écrite concernait le classificateur ternaire et la résolution du mystère deYuriy Asaulenko.
C'est la bonne décision. La théorie des NS, ici sur le forum, est loin d'être idéale.
La seule chose que j'ai écrite concernait le classificateur ternaire et la résolution du mystère deYuriy Asaulenko.
La seule chose que j'ai écrite concernait le classificateur ternaire et la résolution du mystèrede Yuriy Asaulenko.
Et où avez-vous trouvé le mystère.
MLP est ~60 neurones. L'algorithme est un BP standard. Apprendre - aller et venir, c'est-à-dire que je ne sais pas ce que NS apprend là-bas. En outre, tous les principes de l'apprentissage sont exposés dans des monographies classiques - Heikin, Bishop. Soft n'est pas MQL.
Les principes de base sont donnés dans cette rubrique.
Et où avez-vous trouvé le mystère.
Le MLP a ~60 neurones. Algorithme - BP standard. Apprentissage - aller là où je ne sais pas où, c'est-à-dire que je ne sais pas ce que les NS y apprennent. En outre, tous les principes de l'apprentissage sont exposés dans des monographies classiques - Heikin, Bishop. Soft n'est pas MQL.
Les principes de base sont décrits dans cette rubrique.
C'était une sorte de blague :))
c'était une sorte de blague :))
Non. Il n'y a vraiment rien d'autre là-bas. Vous pensez que Haykin et Bishop sont désespérément dépassés et vous cherchez quelque chose de nouveau. Ils me suffisent amplement.
non, je veux dire que c'est comme si je plaisantais... tu es le seul dans ce fil de discussion qui a trouvé quelque chose à la fin :)
Vous devez googler l'entraînement du perceptron en utilisant la méthode Monte Carlo.
En général, cette méthode est très similaire à la RL (apprentissage par renforcement) lorsqu'il y a un agent d'apprentissage et que le NS apprend à trouver la meilleure solution.
C'est ainsi que l'Alpha Go est entraîné (bien que l'on pensait auparavant qu'il s'agissait d'un jeu créatif et qu'une machine ne pouvait pas y battre un humain)
et voici le gagnant.
https://techfusion.ru/nejroset-alphago-pereveli-na-samoobuchenie/
non, je veux dire que c'est comme si je plaisantais... tu es le seul dans ce fil de discussion qui a trouvé quelque chose à la fin :)
Vous devez googler l'entraînement du perceptron en utilisant la méthode Monte Carlo.
En général, cette méthode est très similaire au RL (apprentissage par renforcement) lorsque vous avez un agent d'apprentissage et que le NS apprend à trouver la meilleure solution.
D'ailleurs, c'est en grande partie grâce à vous. Quand j'ai commencé, c'est vous qui m'avez donné le lien vers l'article de Reshetov. En général, l'article ne vaut rien, il s'agit plutôt d'un exemple d'application, mais il est devenu plus ou moins clair où atteler le cheval.
Je ne sais pas s'il existe de telles méthodes dans Google, car j'en suis venu moi-même à Monte Carlo.
Je ne connais pas non plus RL, mais d'après votre brève description, cela ressemble à mes méthodes.
J'ai trouvé Monte Carlo dans Google -https://logic.pdmi.ras.ru/~sergey/teaching/mlbayes/08-neural.pdf Seulement il est absolument différent.