L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 3028
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
C'est vrai.
convolutions, noyaux de convolution
transformée à noyau convolutif
J'ai compris. Mais quelque chose dans l'imagination ne dessine pas comment ils peuvent être liés à la quantification du tout pour être mutuellement substitués. L'histoire est plutôt tirée vers le haut par ces transformées. J'ai l'intention de les essayer plus tard.
Vous auriez dû le dire tout de suite.
Je ne sais pas comment être plus précis - je pense que Maxim a compris.
" Sous forme binaire. La colonne est le numéro de la règle, et la valeur est "1" - la règle a fonctionné et "0" - la règle n'a pas fonctionné. Et la cible est la même que dans l'échantillon principal. "
J'ai compris. Mais quelque chose dans l'imagination ne dessine pas du tout comment ils peuvent être liés à la quantification, qui serait mutuellement remplacée. C'est plutôt comme si l'histoire était tirée vers le haut par eux. J'ai l'intention de les essayer plus tard.
étude
https://www.arxiv-vanity.com/papers/1910.13051/
https://www.youtube.com/watch?v=1BRYrnvMhyI
L'article contient de nombreuses références à d'autres méthodes de pointe de classification des séries temporelles, à des méthodes d'extraction de signaux et de motifs.
Il n'y a rien sur les inefficacités, mais il s'agit, comme on dit, d'un travail à domicile.
Je n'ai pas encore trouvé comment mettre en œuvre la maximisation du profit dans le même bousinage, par exemple.
Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.
Où en êtes-vous avec le boosting et la maximisation des profits ?
étude
https://www.arxiv-vanity.com/papers/1910.13051/
https://www.youtube.com/watch?v=1BRYrnvMhyI
L'article contient de nombreuses références à d'autres méthodes de pointe de classification des séries temporelles, ainsi qu'à des méthodes d'extraction de signaux et de motifs.
Il n'y a rien sur les inefficacités, mais il s'agit, comme on dit, d'un travail à domicile
Oui, la théorie de la création est claire. Il y a une question de rationalité dans mon esprit, et de génération de différentes variantes. Le plan consiste à créer un générateur et un testeur avec quantification pour évaluer l'efficacité de chaque instance du noyau de convolution. Plus tard - la tâche prioritaire - la prédiction de la dérive des données dans un prédicteur particulier. Si cette tâche n'est pas résolue, je ne m'intéresse plus à rien.
La théorie de la création est suffisamment claire. Il s'agit pour moi d'une question de rationalité et de génération de différentes variantes. Selon le plan, je vais créer un générateur et un testeur avec quantification pour évaluer l'efficacité de chaque instance de noyau de convolution. Plus tard, la première tâche prioritaire sera la prédiction de la dérive des données dans un prédicteur particulier. Si ce problème n'est pas résolu, je ne m'intéresse plus à rien.
La "quantification" met en évidence certaines des propriétés de la fiche, d'après ce que j'ai compris. Une convolution fait la même chose. Il s'avère que c'est du beurre et de l'argent du beurre.
La réconciliation sur des séries temporelles agrège des informations sur les valeurs passées des prédicteurs (il est possible de prendre celles qui étaient dans l'échantillon et celles qui ne l'étaient pas), et la quantification évalue le succès de cette action.
La convolution de séries temporelles agrège des informations sur les valeurs passées des prédicteurs (il est possible de prendre celles qui étaient dans l'échantillon et celles qui ne l'étaient pas), et la quantification évalue le succès de cette action.
Qu'est-ce que la quantification ?)
Dans le contexte auquel je fais référence, il s'agit d'une évaluation fragmentaire d'un ensemble de données afin d'identifier un élément (segment quantique) dont la probabilité d'appartenance à l'une des classes est supérieure de x pour cent à la moyenne de l'ensemble de l'éventail.