L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1977

 

C'est dommage, l'augmentation de la TF aggrave le résultat, le rang est meilleur.

Ajout de MA et d'éclaircissement. Sans MA, l'éclaircissement fonctionne comme un changement de TF et rend la distribution normale. RMS = racine du pas d'amincissement. Si le MA est 2 fois plus important que l'éclaircissement, alors nous avons un sous-échantillonnage kasher, la prédiction fonctionne avec une grande précision, mais nous avons besoin d'un testeur pour calculer le gain attendu correct. Le zigzag est prêt, mais je ne sais pas quelle forme il doit prendre : des tableaux d'indices avec des minima et des maxima, ou un tableau d'indices, ou un tableau de prix à la fois.

Je peux obtenir n'importe quel autre filtre à la place du MA, mais j'ai juste besoin de connaître la caractéristique d'impulsion. Dans le code, MA est fait comme [1/per]*per, ce qui se développera pour per=4 en [0.25, 0.25, 0.25, 0.25].

 
Rorschach:

Forêt : 55,89% de bonnes réponses, 2,36 d'attente

Incréments cumulatifs de la forêt : 55.89% de réponses correctes, 2.36 d'attente, résultats identiques

Il y a cependant une différence, les incréments sont meilleurs.

Problèmes avec le zigzag, il n'est pas clair comment limiter le changement minimal, toujours des micro-commutations.


 

Plutôt des bêtises, mais je vais demander.


NS peut-elle prédire de telles séries ?


Comme la probabilité d'apparition du prochain personnage. Et y a-t-il une dépendance de la série A, sur la série B.

 
Evgeniy Chumakov:

Plutôt des bêtises, mais je vais demander.


NS peut-elle prédire de telles séries ?


Comme la probabilité d'apparition du prochain personnage. Et y a-t-il une corrélation entre la série A et la série B ?

C'est leur tâche directe.

 

Après le passage à TensorFlow 2.3, une erreur est apparue

"WARNING:tensorflow:11 des 11 derniers appels à déclencher le retraçage de la fonction tf. Le traçage est coûteux et le nombre excessif de traçages pourrait être dû à la création répétée de @tf.function dans une boucle " .

C'est-à-dire qu'une fonction tf.function jure qu'elle est dans une boucle. Je n'ai pas de fonction tf.function, mais dans la boucle il interroge les modèles prediction=model.predict(data).
La fonction tf.est décrite ici
. Il s'agit clairement d'une entité inconnue, quelqu'un comprend-il ce que c'est ?

UPD
Quoi qu'il en soit, c'est une sorte de chose cool, je ne peux pas m'en passer, je dois y réfléchir. Il résout les problèmes de compatibilité de TensorFlow avec Python.

 

Je crois que j'ai fini l'agent négociateur. J'ai suivi la démo pour les tests alpha. La logique n'est pas triviale, il peut donc y avoir des bogues. Testons-le.

Maintenant, je suis intéressé à essayer LSTM dans différentes variantes et peut-être des transformateurs (mais cela peut être difficile à comprendre).
 
Maxim Dmitrievsky:

Je pense que j'ai terminé le négociant. J'ai suivi la démo pour les tests alpha. La logique n'est pas triviale, il peut donc y avoir des bogues. Testons-le.

Maintenant, j'ai envie d'essayer le LSTM dans différentes variantes et peut-être des transformateurs (mais cela peut vous casser le cerveau d'essayer de le comprendre).

La logique est plus complexe. D'un côté, c'est bien. D'autre part, les bugs dans les zones non familières. Le transformateur est quoi ?

 
Valeriy Yastremskiy:

La logique est plus ramifiée. D'un côté, c'est une bonne chose. D'autre part, il y a des bugs dans des zones qui ne sont pas familières. Le transformateur est quoi ?

Un nouveau type de réseau pour travailler avec des séquences temporelles, qui serait meilleur que lstm. Dans la reconnaissance de texte, la traduction automatique, etc., ils sont utilisés pour mettre en évidence le contexte des phrases. C'est-à-dire lorsqu'un mot est lié à d'autres (précédents) par un certain contexte.

des transformateurs d'auto-attention. Mécanisme - l'analogue de l'attention humaine.

 
Maxim Dmitrievsky:

un nouveau type de réseau à séquence temporelle, réputé meilleur que le lstm. Dans la reconnaissance de texte, la traduction automatique, etc., ils sont utilisés pour mettre en évidence le contexte des phrases. C'est-à-dire lorsqu'un mot est lié à d'autres (précédents) par un certain contexte.

des transformateurs d'auto-attention. Mécanisme - l'analogue de l'attention humaine.

Des complications aussi importantes. D'abord, la mémoire est longue et courte, et ensuite il y a le semblant d'attention dans le modèle. Mon cerveau ne peut pas faire face à tout cela en même temps). Mais ça devrait mieux fonctionner.

 
Valeriy Yastremskiy:

Eh bien des complications aussi importantes. D'abord, la mémoire est longue et courte, et ensuite il y a le semblant d'attention dans le modèle. Le cerveau n'est définitivement pas à la hauteur))). Mais ça devrait mieux fonctionner.

Il fonctionne mieux, mais vous ne saurez jamais où il va.

En général, les réseaux de rétropropagation conventionnels comme le mlp ne sont pas adaptés aux séries temporelles, pas du tout. Au minimum, vous avez besoin de RNN