L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1980

 
Valeriy Yastremskiy:
Comment la mémoire est-elle organisée ?

dépend de l'endroit où

si vous le comprenez, j'attends une explication :)

http://peterbloem.nl/blog/transformers

Transformers from scratch
  • peterbloem.nl
I will assume a basic understanding of neural networks and backpropagation. If you’d like to brush up, this lecture will give you the basics of neural networks and this one will explain how these principles are applied in modern deep learning systems. Self-attention The fundamental operation of any transformer architecture is the self-attention...
 

Bonjour à tous, je n'ai pas posté la vidéo directement sur le fil du forum mais sur mon blog. ATTENTION : langage non normatif pour ceux qui s'intéressent vraiment au marché...

https://www.mql5.com/ru/blogs/post/739164

Говорим и показываем о рынке
Говорим и показываем о рынке
  • www.mql5.com
Оказывается пьяным меня смотреть ещё интересней. ВНИМАНИЕ в видео используется не нормативная лексика так что уберите детей от экрана телевизора. Ну и говорим собственно о рынке
 
Mihail Marchukajtes:

Bonjour à tous, je n'ai pas posté la vidéo directement sur le fil du forum mais sur mon blog. ATTENTION : langage non normatif pour ceux qui s'intéressent vraiment au marché...

https://www.mql5.com/ru/blogs/post/739164

Il y a aussi une référence directe à toi, Maxim !!!!!.
 
Maxim Dmitrievsky:

Je me suis seulement promené dans les bois avant, je n'ai pas utilisé le HH-ki......

Moi non plus... C'est pourquoi je parle d'un schéma fonctionnel, de sorte qu'au moins au niveau des images pour comprendre comment il fonctionne

 
mytarmailS:

Oui, moi aussi... C'est pourquoi je parle du schéma fonctionnel, afin qu'au moins au niveau des images pour comprendre le fonctionnement des choses

J'ai passé deux jours à essayer de comprendre ce qu'est une couche de cohonène.

et il s'avère que c'est juste un auto-codeur primitif.

Vladimir a écrit sur eux dans des articles
 
Maxim Dmitrievsky:

dépend de l'endroit où

si vous le comprenez, j'ai hâte de l'expliquer :)

http://peterbloem.nl/blog/transformers

Ce que je ne peux pas créer, je ne le comprends pas, c'est ce que disait Feynman.

La multiplication est meilleure que l'addition, le signe est pris en compte. Généralement les travaux de dire argument et résultat est quelque chose) une fonction comptable unique.

Les requêtes, les clés et les valeurs ne comprennent pas bien comment elles sont organisées.

La principale différence réside dans le traitement pseudo-parallèle et l'accès aux données entraînées et au produit scalaire des vecteurs de résultats d'entrée et de sortie, appelé conscience de soi. Et ensuite, la matrice de ces produits scalaires est utilisée pour la formation. Et ce ne sont pas des poids.

Je n'ai pas trouvé d'informations sur la mémoire longue dans l'article.

En général, des matrices supplémentaires corrigeant le résultat sont créées.

Je ne prétends pas le comprendre correctement. ))))

 
Valeriy Yastremskiy:

Ce que je ne peux pas créer, je ne le comprends pas, c'est ce que disait Feynman.

La multiplication est meilleure que l'addition, le signe est pris en compte. Généralement les travaux de dire argument et résultat est quelque chose) une fonction comptable unique.

Les requêtes, les clés et les valeurs ne comprennent pas bien comment elles sont organisées.

La principale différence réside dans le traitement pseudo-parallèle et l'accès aux données entraînées et au produit scalaire des vecteurs de résultats d'entrée et de sortie, appelé conscience de soi. Et ensuite, la matrice de ces produits scalaires est utilisée pour la formation. Et ce ne sont pas des poids.

Je n'ai pas trouvé d'informations sur la mémoire longue dans l'article.

En général, des matrices supplémentaires corrigeant le résultat sont créées.

Je ne prétends pas le comprendre correctement)))).

c'est un autre algorithme (comme le plus cool maintenant), il n'y a pas de définition de la mémoire longue et courte dans celui-ci comme dans lstm.

le long et le court est juste pour voir comment une cellule lstm fonctionne

 
Maxim Dmitrievsky:

J'ai passé deux jours à essayer de comprendre ce qu'est une couche de cohonène (VQ).

et il s'avère que c'est juste un auto-codeur primitif.

Vladimir a écrit sur eux dans des articles

Vladimir a écrit spécifiquement sur VQ ? ou juste ?

Et la mémoire ? Comment fonctionne-t-elle ? Est-il fixe ou fonctionne-t-il dans une fenêtre (comme un indicateur), est-il statique ou se renouvelle-t-il ?

je me demande s'il est possible de faire la même chose avec un échafaudage ?

j'ai un million de questions)))

 
Maxim Dmitrievsky:

il s'agit d'un algorithme différent (comme le plus cool maintenant), il n'y a pas de définition de la mémoire longue et courte comme dans lstm, je crois.

sur le long et le court est juste pour voir comment une cellule lstm fonctionne

Ahh. Eh bien, il y a la conscience de soi et la ressource dans les temps comme compris. En général, la mise à l'échelle de l'architecture du réseau améliore simplement ses performances jusqu'à une certaine limite. Je comprends ici la complication d'un réseau par des combinaisons de diverses logiques, puis sa mise à l'échelle)). Et par conséquent

Le goulot d'étranglement de l'apprentissage par transformation est la matrice des produits scalaires de la conscience de soi. Pour une séquence de longueur t , il s'agit d'une matrice dense contenant t éléments au carré . Avec une précision standard de 32 bits et avec t= 1000 , un lot de 16 matrices de ce type occupe environ 250 Mo de mémoire. Comme nous avons besoin d'au moins quatre d'entre elles (avant et après softmax, plus leurs gradients) pour une seule opération d'auto-imagerie, cela nous limite à un maximum de douze couches dans un GPU standard et à 12 Go.

 
Maxim Dmitrievsky:

vous devrez faire beaucoup de recherches et de réflexions avant de comprendre...

vous devrez peut-être acheter des vitamines pour le cerveau, boire moins)

Je ne l'ai pas encore compris.) Mais ce n'est pas aussi difficile que ça en a l'air.

Nous revenons donc à l'organigramme habituel, qu'il faut d'abord inventer pour avoir une compréhension au niveau de l'image...

comme -

d'abord le classificateur(il fait ceci et cela)

puis nous connectons le classificateur à la sortie (il fait ceci et cela)

puis compter quelque chose ( il fait ceci et cela )

la sortie est à nouveau connectée à la couleuse

etc...


Si vous lisez directement des informations compliquées dont vous ne connaissez même pas les termes, qu'allez-vous obtenir ?

Il faut comprendre le principe de base de l'algorithme, notamment au niveau du schéma de blocs, comme je l'ai souligné. Vous comprendrez alors ce qu'il en est et ce qu'il en est, et lorsque vous l'aurez compris, vous comprendrez ce que vous pouvez améliorer et comment le faire.