L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1538

 
mytarmailS:

dtw, analyse du spectre ... un tas ...

j'ai réussi à créer un algorithme qui sait voir les mêmes motifs quelle que soit leur ampleur, c'est-à-dire que l'algorithme regarde un graphique et voit le motif à la fois sur les graphiques 1 minute et hebdomadaire, en ne regardant qu'un seul graphique, et il peut faire de vraies prédictions, mais il me reste encore beaucoup de travail à faire

j'ai commencé à me documenter sur le dtw, mais je ne sais pas comment l'appliquer à une carte finlandaise et ce dont j'ai besoin) mais c'est un sujet intéressant, je suppose.

 
Maxim Dmitrievsky:

j'ai commencé à lire quelque chose sur le dtw, mais je n'ai pas compris comment l'appliquer aux rangs de la finance et pourquoi j'en ai besoin) mais le sujet est intéressant, je suppose.

les fichiers vocaux et musicaux sont compressés à l'aide de dtw et ils sont aussi VR

;)

 
Igor Makanu:

les fichiers vocaux et musicaux sont compressés à l'aide de dtw, qui à leur tour sont également VR

;)

mais pourquoi compresser les fichiers financiers avec dtw :)

 
Maxim Dmitrievsky:

mais pourquoi presser le temps fin. :)

J'ai déjà étudié ce sujet, dans mes propres mots, c'est quelque chose comme ça :

voici ce qu'il en est dedtw : il s'agit d'un algorithme approprié pour la compression de BP - BP, pas n'importe quel type de données, quelles qu'elles soient.

Si nous savons comment compresser correctement les données, obtenons-nous des paquets ? - ou encore des modèles de données - ce sont ces modèles de données qui permettent de créer des algorithmes de reconnaissance vocale.

C'est ainsi que je vois l'utilisation deDWT.

en principe, vous pouvez appliquer dtwà la BP financière, imho s'il n'y a pas de perte de données après la conversion (c'est-à-dire que la conversion inverse est possible), alors il est logique d'essayer de l'appliquer à la BP financière, comme ils disent, mais que faire si ?

SZS : lire un article il y a quelques annéeshttps://habr.com/ru/post/135087/

 
Igor Makanu:

J'ai déjà étudié ce sujet, dans mes propres mots, ça donne quelque chose comme ça :

voici la valeur dedtw - c'est le bon algorithme pour compresser BP - exactement BP, pas n'importe quoi et n'importe quelles données

Si nous savons comment comprimer correctement les données, obtenons-nous des paquets ? - ou encore des modèles de données - ce sont ces modèles de données qui permettent de créer des algorithmes de reconnaissance vocale.

C'est ainsi que je vois l'utilisation deDWT.

en principe, vous pouvez appliquer dtwà la BP financière, imho s'il n'y a pas de perte de données après la conversion (c'est-à-dire que la conversion inverse est possible), alors il est logique d'essayer de l'appliquer à la BP financière, comme ils disent, mais que faire si ?

SZS : lire un article il y a quelques annéeshttps://habr.com/ru/post/135087/

Eh bien, on peut y réfléchir un peu plus tard, oui. Pour extraire les mêmes motifs des retours mb

D'un autre côté, il n'y a aucun intérêt à avoir un réseau neuronal
 
Maxim Dmitrievsky:

d'autre part, il n'y a aucun intérêt à avoir un réseau neuronal

je ne sais pas, j'ai abandonné l'étude de tout cela, c'est intéressant, mais à mon avis, il devrait y avoir des moyens plus faciles de comprendre ce qui se passe sur le marché.

à propos de ns, et bien vous savez que le traitement des données est plus important que la configuration ou le type de ns, imho, dtw est le traitement correct de BP ( quand on traite exactement BP ! !! ) c'est la cohérence des données qui est importante !

à peu près le même dtw dans le traitement de la voix - c'est la cohérence / la séquence des lettres qui compte ? ;)


UPD :

si dans NS pour alimenter à la formation simplement une fenêtre coulissante de données BP (barres), alors imho, il est une illusion que par les entrées de NS - exactement comme nous avons dessiné 1,2,3...N entrée, NS percevra que les données sont alimentées séquentiellement comme nous voulons, à l'intérieur de toutes les entrées seront mélangés, imho, il ne sera pas une fenêtre coulissante pour NS

 
Igor Makanu:

je ne sais pas, j'ai abandonné l'étude de tous ces trucs, c'est intéressant, mais je pense qu'il devrait y avoir des moyens plus faciles de comprendre ce qui se passe sur le marché.

concernant les NS, vous savez que le dtw est plus important que la configuration ou le type de NS, imho, le dtw est le traitement correct de la BP ( quand on traite la BP ! !! ) c'est la cohérence des données qui est importante !

à peu près le même dtw dans le traitement de la voix - c'est la cohérence / la séquence des lettres qui compte ? ;)

Je ne m'y connais pas en la matière, mais pour autant que je sache, les réseaux neuronaux récurrents et convolutifs sont utilisés depuis longtemps. Par exemple, l'algorithme seq2seq (traitement du langage neuronal) de Google. Le dtw n'aura-t-il pas l'air délavé sur ce fond, je ne veux pas serrer les poings sur la chaise inutilement :)
 
Maxim Dmitrievsky:
Je ne m'y connais pas en la matière, mais pour autant que je sache, les réseaux neuronaux récurrents et ultra-précis sont utilisés depuis longtemps pour cela. Par exemple, l'algorithme seq2seq de Google. Est-ce que dtw n'aurait pas l'air délavé sur ce fond, je ne veux pas serrer mes jointures dans une chaise pour un temps inutile :)

J'ai lu des articles sur la récurrence et l'ultra-précision, enfin, pour ainsi dire, mais tous les exemples sont comme d'habitude pour la reconnaissance d'images, et là, ils commencent à faire des trucs avec la compression de palettes comme pour produire...

le feedback est très bon pour traiter les palettes et les données sont très utiles pour traiter les polices et les bitmaps, il est difficile de les lire tous.

 
Igor Makanu:

J'ai lu des articles sur la récurrence et l'ultra-précision, enfin, pour ainsi dire, mais tous les exemples sont comme d'habitude pour la reconnaissance d'images, et là, ils commencent à faire des trucs avec la compression de palettes comme pour produire...

eeeeee heck, les ondes sonores sont plus proches de la BP que les images - elles ne sont pas non plus stationnaires, et les images semblent perdre plus en compressant l'information pendant le traitement qu'en essayant de la récupérer - c'est comme si la NS apprenait plus vite et mieux

NLP et seq2seq, ce sont pour les sons de la parole et autres.
 
Maxim Dmitrievsky:
NLP et seq2seq, ils sont destinés aux sons de la parole, etc.

Je n'en ai pas entendu parler du tout, bien que j'aie lu beaucoup de documents ! Je regarderai ça demain, merci.