L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1539

 
Igor Makanu:

les fichiers vocaux et musicaux sont compressés à l'aide de dtw, qui à leur tour sont également VR

;)

Igor Makanu:

J'ai étudié ce sujet, dans mes propres mots, ça donne ceci :

)) qu'est-ce que la compression ? ce que vous avez étudié là n'est pas clair, mais certainement pas ça

Maxim Dmitrievsky:

pourquoi avez-vous besoin de compresser les ressources financières :)

pourquoi en effet ? :))

 
elibrarius:

Vous pouvez simplement discrétiser les données d'entrée, par exemple en convertissant 5 chiffres en 4 chiffres. Et les données seront déjà par groupes de 10.
Ou, comme je l'ai déjà suggéré, vous pouvez intégrer une forêt d'alglib pour arrêter le branchement lorsque la profondeur ou le nombre d'exemples souhaités dans une feuille est atteint.

l'échantillonnage fonctionne mieux que les fics de chats+vanhot, aucune amélioration significative n'a été apportée

 
mytarmailS:

et vraiment, pourquoi ? :))

vous pouvez compresser les citations dans des archives zip, regardez leur taille et ce sera une nouvelle fic

 
mytarmailS:

)) Qu'est-ce que la compression ? Je ne sais pas ce que vous avez étudié, mais ce n'est certainement pas la même chose.

Considérez-vous comme instruit, lisez au moins Wiki avant de poster.

l'algorithme dtw analyse la composante temporelle du signal et l'ajuste à une valeur constante. en connaissant cette valeur, vous pouvez simplement supprimer les pauses entre la partie information du signal - vous aurez ainsi des paquets de données sans composante temporelle + algorithme de transformation de l'axe temporel constant.


Maxim Dmitrievsky:

vous pouvez compresser les citations dans des archives zip, regardez leur taille et ce seront de nouvelles fonctionnalités

Pas du tout, l'algorithme zip est un algorithme de transformation strict, et vous ne pouvez pas identifier des données qui diffèrent d'un octet comme étant les mêmes,

vous n'avez pas besoin d'un algorithme rigoureux de traitement des données, ils ont tous des pertes dans les données originales. si vous n'avez pas d'idée, c'est jpg - il compresse avec les pertes et les données proches dans le contenu seront restituées presque identiques à la fin, mais visuellement ! - les sommes de contrôle seront différentes, les octets eux-mêmes auront des valeurs différentes.....

mais comme exemple de formation pour le NS, c'est peut-être ce dont vous avez besoin, c'est-à-dire un jpg pour des données arbitraires (pas des images).

 
Igor Makanu:

Cela ne fonctionnera pas, l'algorithme zip est un algorithme de conversion strict, et vous ne pouvez pas identifier des données qui diffèrent d'un octet comme étant les mêmes,

vous n'avez pas besoin d'un algorithme strict pour travailler avec les données, ils ont tous une perte des données originales, si vous ne les inventez pas - c'est du jpg - il compresse avec une perte et les données qui sont proches dans le contenu seront restaurées approximativement les mêmes à la fin, mais visuellement ! - les sommes de contrôle seront différentes, les octets eux-mêmes auront des valeurs différentes.....

mais comme exemple de formation pour le NS, c'est probablement ce dont nous avons besoin, c'est-à-dire un fichier jpg pour des données arbitraires (pas des images)

Je plaisante.) Et bien un autoencodeur ou une convolution fait bien le travail. Les articles de Vladimir sur les encodeurs ont des encodeurs, la convolution n'en a pas.

seq2seq est aussi essentiellement un décodeur-encodeur. Par exemple, dans la traduction automatique, le nombre de lettres est différent entre les mots russes et anglais. Là, tout est compressé, analysé et ensuite décompressé.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4
Seq2Seq model using Convolutional Neural Network
Seq2Seq model using Convolutional Neural Network
  • Gautam Karmakar
  • medium.com
Seq2seq model maps variable input sequence to variable length output sequence using encoder -decoder that is typically implemented as RNN/LSTM model. But this paper https://arxiv.org/pdf/1705.03122.pdf shows application of convolutional neural network for seq2seq learning which is state of the art for computer vision using deep learning. There...
 
Maxim Dmitrievsky:

J'ai commencé à lire quelque chose sur le dtw, mais je n'ai pas compris comment l'appliquer aux séries financières et pourquoi j'en ai besoin ; mais c'est un sujet intéressant, je suppose.

Il y avait un concept dans lequel DTW était une extension du processus de recherche d'un semblant d'intrigue, mais au final, il est probablement plus facile (ou peut-être pas) d'utiliser des ondelettes.

 
Maxim Dmitrievsky:

C'était une blague.) Un encodeur automatique ou une convolution font bien le travail. Les articles de Vladimir ont des encodeurs, pas de convolution.

seq2seq est aussi essentiellement un décodeur-encodeur. Par exemple, dans la traduction automatique, le nombre de lettres est différent entre les mots russes et anglais. Tout cela est compressé, analysé et ensuite décompressé.

https://medium.com/@gautam.karmakar/summary-seq2seq-model-using-convolutional-neural-network-b1eb100fb4c4

J'ai lu sur les encodeurs l'année dernière, je crois, que tout, comme d'habitude, repose sur de gros clous sur un graphique de prix - ils brisent toute transformation, s'il n'y avait pas de clous, alors les MA fonctionneraient, le filtre de Kalman fonctionnerait et tout fonctionnerait bien )))).

Par exemple, si j'ai une taille d'échantillon plate au départ, cela peut être une bonne solution pour une telle tâche.


PS : oui il y avait un DTW sur le forum, même recherchehttps://www.mql5.com/ru/code/10755

J'avais l'habitude de le faire tourner mais... tous doivent être traités avec un fichier avant d'être utilisés ))))

 
transcendantal:

Il y avait un concept dans lequel DTW était une extension du processus de recherche de semblance de graphe, mais au final, les ondelettes sont probablement plus faciles (ou peut-être pas).

Igor Makanu:

PS : oui, il y avait un DTW sur le forum, j'ai même cherchéhttps://www.mql5.com/ru/code/10755.

Je l'ai tordu une fois, mais... tous doivent être classés avant d'être utilisés ))))

Oh non, tant pis, je vais continuer à tordre les réseaux neuronaux. Je ne crois pas en une telle chose.

 
Maxim Dmitrievsky:

Oh non, merde, je vais retourner au réseau neuronal. Je ne crois pas en une telle chose.

Je ne veux pas non plus faire tourner NS, je suis occupé avec MT5 tester et son GA, GA fonctionne tout à fait adéquatement, vous pouvez rapidement (4.5 x 10^142 variantes testées !!! - environ 2-3 heures) construire un TS automatique, et ensuite le tester sur forward, les résultats sont tout à fait acceptables, imho

HH : mais GA a également besoin d'un fichier à finaliser, il est difficile de ramasser les paramètres d'entrée - donner beaucoup sera un test de 5 ans, vous commencez à couper que pas de données d'entrée correctes - ici que la chance ou juste trouvé où arrêter et si à tous ne sera pas trouver

 
Igor Makanu:

Je ne veux pas faire NS non plus, j'ai pris MT5 tester et son GA, GA fonctionne tout à fait adéquatement, vous pouvez rapidement (4.5 x 10^142 variantes testées !!! - environ 2-3 heures) construire un TS automatique, et ensuite le tester sur un forward, les résultats sont tout à fait acceptables, imho

Je vais soit faire un suivi bientôt, soit écrire un article... Je suis trop paresseux pour m'embêter avec l'article, c'est trop à taper.

tout est en python maintenant. Cela permet de gagner beaucoup de temps.

Le défaut de l'AG est qu'il ne permet pas de généraliser.