L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2252
![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Comment ça, tu te moques de moi ?
Je veux dire - je savais ce que sont les autogénérateurs avant vous))
Pourquoi y a-t-il un neurone ? Pouvez-vous expliquer le schéma fonctionnel ?
Pourquoi avez-vous décidé de remplacer gmm par un codeur ?
Pourquoi avez-vous pensé que ça marcherait mieux, vous avez eu une idée, je suis intéressé par l'idée, vous savez ?
Donc je dis, pourquoi avez-vous décidé de remplacer le gmm par un codeur ?
Pourquoi avez-vous pensé que ça marcherait mieux, vous avez eu une idée, je suis intéressé par l'idée, vous savez ?
Parce que c'est le même modèle génératif, mais il est personnalisable.
ça marche aussi bien sur les fractions, c'est pire sur les guillemets, je n'ai pas encore compris pourquoi.
parce qu'il s'agit du même modèle génératif, mais personnalisable
ça marche aussi bien sur les guillemets, c'est pire sur les guillemets, je ne sais pas encore pourquoi.
Avez-vous accès aux poids nets et à la possibilité de les modifier ?
Je m'attendais à mieux de leur part.
L'encodeur est un neurone.
vous ne le comprendriez pas de toute façon, mais en voici la structure.
Alors, où est la formation ? C'est tout en fonctions et en classe.
Alors, où est la formation ? C'est tout en fonctions et en classe.
avez-vous besoin d'un cycle d'entraînement ?
avez-vous besoin d'un cycle d'apprentissage ?
D'après ce que j'ai compris, la variation AE diffère de l'AE normale en ce sens que, pendant la formation, le décodeur ne reçoit pas une valeur cachée mais une valeur reparamétrée de celle-ci. Je n'ai pas vu où cela se produit.
D'après ce que j'ai compris, la variation AE diffère de l'AE normale en ce sens que, pendant la formation, le décodeur ne reçoit pas une valeur cachée mais une valeur reparamétrée de celle-ci. Je n'ai pas vu où cela se produit.
Disons (tout n'est pas clair pour moi dans le code de Python). Et où est la formation de ce BAE ?
Est-ce que c'est dans pyTorch ?