L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3028

 
Aleksey Vyazmikin #:

C'est vrai.

C'est ce que vous auriez dû dire en premier lieu.

Au lieu de trois mots compréhensibles, 100 concepts incompréhensibles.

Vous êtes assis là à vous demander de quoi vous parlez.
 
Maxim Dmitrievsky #:

convolutions, noyaux de convolution

transformée à noyau convolutif

J'ai compris. Mais quelque chose dans l'imagination ne dessine pas comment ils peuvent être liés à la quantification du tout pour être mutuellement substitués. L'histoire est plutôt tirée vers le haut par ces transformées. J'ai l'intention de les essayer plus tard.

 
mytarmailS #:
Vous auriez dû le dire tout de suite.

Au lieu de trois mots compréhensibles, vous avez 100 concepts incompréhensibles.

Vous êtes assis là à vous demander de quoi vous parlez.

Je ne sais pas comment être plus précis - je pense que Maxim a compris.

" Sous forme binaire. La colonne est le numéro de la règle, et la valeur est "1" - la règle a fonctionné et "0" - la règle n'a pas fonctionné. Et la cible est la même que dans l'échantillon principal. "

 
Aleksey Vyazmikin #:

J'ai compris. Mais quelque chose dans l'imagination ne dessine pas du tout comment ils peuvent être liés à la quantification, qui serait mutuellement remplacée. C'est plutôt comme si l'histoire était tirée vers le haut par eux. J'ai l'intention de les essayer plus tard.

étude

https://www.arxiv-vanity.com/papers/1910.13051/

https://www.youtube.com/watch?v=1BRYrnvMhyI


L'article contient de nombreuses références à d'autres méthodes de pointe de classification des séries temporelles, à des méthodes d'extraction de signaux et de motifs.

Il n'y a rien sur les inefficacités, mais il s'agit, comme on dit, d'un travail à domicile.

ROCKET: Exceptionally fast and accurate time series classification using random convolutional kernels
ROCKET: Exceptionally fast and accurate time series classification using random convolutional kernels
  • www.arxiv-vanity.com
Most methods for time series classification that attain state-of-the-art accuracy have high computational complexity, requiring significant training time even for smaller datasets, and are intractable for larger datasets. Additionally, many existing methods focus on a single type of feature such as shape or frequency. Building on the recent...
 
Aleksey Nikolayev #:

Je n'ai pas encore trouvé comment mettre en œuvre la maximisation du profit dans le même bousinage, par exemple.

Je fais quelque chose, bien sûr, mais j'aimerais entendre d'autres opinions informatives sur le sujet.

Où en êtes-vous avec le boosting et la maximisation des profits ?

 
Maxim Dmitrievsky #:

étude

https://www.arxiv-vanity.com/papers/1910.13051/

https://www.youtube.com/watch?v=1BRYrnvMhyI


L'article contient de nombreuses références à d'autres méthodes de pointe de classification des séries temporelles, ainsi qu'à des méthodes d'extraction de signaux et de motifs.

Il n'y a rien sur les inefficacités, mais il s'agit, comme on dit, d'un travail à domicile

Oui, la théorie de la création est claire. Il y a une question de rationalité dans mon esprit, et de génération de différentes variantes. Le plan consiste à créer un générateur et un testeur avec quantification pour évaluer l'efficacité de chaque instance du noyau de convolution. Plus tard - la tâche prioritaire - la prédiction de la dérive des données dans un prédicteur particulier. Si cette tâche n'est pas résolue, je ne m'intéresse plus à rien.

 
Aleksey Vyazmikin #:

La théorie de la création est suffisamment claire. Il s'agit pour moi d'une question de rationalité et de génération de différentes variantes. Selon le plan, je vais créer un générateur et un testeur avec quantification pour évaluer l'efficacité de chaque instance de noyau de convolution. Plus tard, la première tâche prioritaire sera la prédiction de la dérive des données dans un prédicteur particulier. Si ce problème n'est pas résolu, je ne m'intéresse plus à rien.

La "quantification" met en évidence certaines des propriétés de la fiche, d'après ce que j'ai compris. La convolution fait la même chose. Il s'avère que c'est du beurre et de l'argent du beurre.
 
Maxim Dmitrievsky #:
La "quantification" met en évidence certaines des propriétés de la fiche, d'après ce que j'ai compris. Une convolution fait la même chose. Il s'avère que c'est du beurre et de l'argent du beurre.

La réconciliation sur des séries temporelles agrège des informations sur les valeurs passées des prédicteurs (il est possible de prendre celles qui étaient dans l'échantillon et celles qui ne l'étaient pas), et la quantification évalue le succès de cette action.

 
Aleksey Vyazmikin #:

La convolution de séries temporelles agrège des informations sur les valeurs passées des prédicteurs (il est possible de prendre celles qui étaient dans l'échantillon et celles qui ne l'étaient pas), et la quantification évalue le succès de cette action.

Qu'est-ce que la quantification ?)
 
Maxim Dmitrievsky #:
Qu'est-ce que la quantification ?)

Dans le contexte auquel je fais référence, il s'agit d'une évaluation fragmentaire d'un ensemble de données afin d'identifier un élément (segment quantique) dont la probabilité d'appartenance à l'une des classes est supérieure de x pour cent à la moyenne de l'ensemble de l'éventail.