L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1980
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Comment la mémoire est-elle organisée ?
dépend de l'endroit où
si vous le comprenez, j'attends une explication :)
http://peterbloem.nl/blog/transformers
Bonjour à tous, je n'ai pas posté la vidéo directement sur le fil du forum mais sur mon blog. ATTENTION : langage non normatif pour ceux qui s'intéressent vraiment au marché...
https://www.mql5.com/ru/blogs/post/739164
Bonjour à tous, je n'ai pas posté la vidéo directement sur le fil du forum mais sur mon blog. ATTENTION : langage non normatif pour ceux qui s'intéressent vraiment au marché...
https://www.mql5.com/ru/blogs/post/739164
Je me suis seulement promené dans les bois avant, je n'ai pas utilisé le HH-ki......
Moi non plus... C'est pourquoi je parle d'un schéma fonctionnel, de sorte qu'au moins au niveau des images pour comprendre comment il fonctionne
Oui, moi aussi... C'est pourquoi je parle du schéma fonctionnel, afin qu'au moins au niveau des images pour comprendre le fonctionnement des choses
J'ai passé deux jours à essayer de comprendre ce qu'est une couche de cohonène.
et il s'avère que c'est juste un auto-codeur primitif.
Vladimir a écrit sur eux dans des articlesdépend de l'endroit où
si vous le comprenez, j'ai hâte de l'expliquer :)
http://peterbloem.nl/blog/transformers
Ce que je ne peux pas créer, je ne le comprends pas, c'est ce que disait Feynman.
La multiplication est meilleure que l'addition, le signe est pris en compte. Généralement les travaux de dire argument et résultat est quelque chose) une fonction comptable unique.
Les requêtes, les clés et les valeurs ne comprennent pas bien comment elles sont organisées.
La principale différence réside dans le traitement pseudo-parallèle et l'accès aux données entraînées et au produit scalaire des vecteurs de résultats d'entrée et de sortie, appelé conscience de soi. Et ensuite, la matrice de ces produits scalaires est utilisée pour la formation. Et ce ne sont pas des poids.
Je n'ai pas trouvé d'informations sur la mémoire longue dans l'article.
En général, des matrices supplémentaires corrigeant le résultat sont créées.
Je ne prétends pas le comprendre correctement. ))))
Ce que je ne peux pas créer, je ne le comprends pas, c'est ce que disait Feynman.
La multiplication est meilleure que l'addition, le signe est pris en compte. Généralement les travaux de dire argument et résultat est quelque chose) une fonction comptable unique.
Les requêtes, les clés et les valeurs ne comprennent pas bien comment elles sont organisées.
La principale différence réside dans le traitement pseudo-parallèle et l'accès aux données entraînées et au produit scalaire des vecteurs de résultats d'entrée et de sortie, appelé conscience de soi. Et ensuite, la matrice de ces produits scalaires est utilisée pour la formation. Et ce ne sont pas des poids.
Je n'ai pas trouvé d'informations sur la mémoire longue dans l'article.
En général, des matrices supplémentaires corrigeant le résultat sont créées.
Je ne prétends pas le comprendre correctement)))).
c'est un autre algorithme (comme le plus cool maintenant), il n'y a pas de définition de la mémoire longue et courte dans celui-ci comme dans lstm.
le long et le court est juste pour voir comment une cellule lstm fonctionne
J'ai passé deux jours à essayer de comprendre ce qu'est une couche de cohonène (VQ).
et il s'avère que c'est juste un auto-codeur primitif.
Vladimir a écrit sur eux dans des articlesVladimir a écrit spécifiquement sur VQ ? ou juste ?
Et la mémoire ? Comment fonctionne-t-elle ? Est-il fixe ou fonctionne-t-il dans une fenêtre (comme un indicateur), est-il statique ou se renouvelle-t-il ?
je me demande s'il est possible de faire la même chose avec un échafaudage ?
j'ai un million de questions)))
il s'agit d'un algorithme différent (comme le plus cool maintenant), il n'y a pas de définition de la mémoire longue et courte comme dans lstm, je crois.
sur le long et le court est juste pour voir comment une cellule lstm fonctionne
Ahh. Eh bien, il y a la conscience de soi et la ressource dans les temps comme compris. En général, la mise à l'échelle de l'architecture du réseau améliore simplement ses performances jusqu'à une certaine limite. Je comprends ici la complication d'un réseau par des combinaisons de diverses logiques, puis sa mise à l'échelle)). Et par conséquent
Le goulot d'étranglement de l'apprentissage par transformation est la matrice des produits scalaires de la conscience de soi. Pour une séquence de longueur t , il s'agit d'une matrice dense contenant t éléments au carré . Avec une précision standard de 32 bits et avec t= 1000 , un lot de 16 matrices de ce type occupe environ 250 Mo de mémoire. Comme nous avons besoin d'au moins quatre d'entre elles (avant et après softmax, plus leurs gradients) pour une seule opération d'auto-imagerie, cela nous limite à un maximum de douze couches dans un GPU standard et à 12 Go.
vous devrez faire beaucoup de recherches et de réflexions avant de comprendre...
vous devrez peut-être acheter des vitamines pour le cerveau, boire moins)
Je ne l'ai pas encore compris.) Mais ce n'est pas aussi difficile que ça en a l'air.
Nous revenons donc à l'organigramme habituel, qu'il faut d'abord inventer pour avoir une compréhension au niveau de l'image...
comme -
d'abord le classificateur(il fait ceci et cela)
puis nous connectons le classificateur à la sortie (il fait ceci et cela)
puis compter quelque chose ( il fait ceci et cela )
la sortie est à nouveau connectée à la couleuse
etc...
Si vous lisez directement des informations compliquées dont vous ne connaissez même pas les termes, qu'allez-vous obtenir ?
Il faut comprendre le principe de base de l'algorithme, notamment au niveau du schéma de blocs, comme je l'ai souligné. Vous comprendrez alors ce qu'il en est et ce qu'il en est, et lorsque vous l'aurez compris, vous comprendrez ce que vous pouvez améliorer et comment le faire.