L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2277

 

Et les variantes qui sont proches en amplitude se généraliseront de cette manière. Par exemple, si vous divisez un jeton en deux 3 fois, vous obtiendrez des jetons de 0 à 0,25, de 0,25 à 0,5, de 0,5 à 0,75 et de 0,75 à 1.

Ainsi, une feuille contiendra toutes les variantes avec cette caractéristique, par exemple de 0,5 à 0,75 - vous aurez 0,5 et 0,55 et 0,64 et 0,72. C'est une assez bonne généralisation en amplitude. Les réseaux neuronaux font probablement la même chose en raison de l'activation non linéaire des f-stations.

Mais il n'y a pas de généralisation par temps dans l'arbre.

Apparemment, nous devrions mettre en place un modèle de 20 caractéristiques et des morceaux de 10 caractéristiques les étirant et des morceaux de 50 caractéristiques les compressant, ainsi qu'une douzaine de variantes intermédiaires.

 
mytarmailS:

non...

interpoler/extrapoler, c'est la même chose que d'utiliser des fenêtres de tailles différentes, mêmes pertes.

Vous vous rendez compte du temps que ça prend ? Pour chaque itération.

c'est très rapide. Vous disposez d'un modèle de 1000 caractères. Vous devez interpoler des échantillons plus petits à la taille du motif.

7 microsecondes feront l'affaire.

Mais il faut peut-être corréler les petits modèles entre eux (petit point par petit point sur l'axe des x), alors ce sera plus rapide. Dans ce cas, il est préférable de compresser les gros et d'interpoler les petits.

ZS. Si, par exemple, le modèle est de 490 et le gabarit de 500, vous pouvez ajouter 10 Nan dans une rangée de manière aléatoire (ou mieux uniformément répartis), puis interpoler

et si vous avez besoin de le réduire encore plus facilement, dans l'approximation linéaire par morceaux, vous fixez le nombre de morceaux à 500, si le motif > 500

Et vous n'avez pas besoin d'une grande variété de tailles de fenêtres. De 200 à 800 là... par étapes de 20-50. Tout va voler. Ou peut-être pas, je ne sais même pas pourquoi c'est nécessaire) mais en vidéo c'est rapide, mais les motifs sont terriblement moches.

 

J'avais l'habitude de rechercher des fractales multiples, c'est-à-dire que la fractale actuelle fait partie d'une plus grande, qui lui est similaire. Ensuite, je prends une suite de la plus grande et je la prédis. Eh bien, parfois ça marche, parfois non, car ils ont tendance à se déformer beaucoup, même s'ils sont généralement similaires.

C'est-à-dire qu'il suffit de prendre la dernière tranche du graphique de n barres et de prendre la grande dernière tranche de n+100500 barres. Trouvez la corrélation entre le petit et le grand morceau et voyez ce qui vient après ce morceau, puis reportez cela dans le futur. S'il y a plus d'une correspondance, faites une moyenne. Mais j'ai aussi fait des prébars affines car l'angle de pente change aussi.

 
Maxim Dmitrievsky:

c'est très rapide. Vous disposez d'un modèle de 1 000 caractères. Vous devez interpoler des échantillons plus petits à la taille du modèle.

7 microsecondes feront l'affaire.

Mais il faut peut-être corréler les petits modèles entre eux (petit point par petit point sur l'axe des x), alors ce sera plus rapide. Dans ce cas, il est préférable de compresser les gros et d'interpoler les petits.

ZS. Si, par exemple, le modèle est de 490 et le gabarit de 500, vous pouvez ajouter 10 Nan dans une rangée de manière aléatoire (ou mieux uniformément répartis), puis interpoler

et si vous avez besoin de le réduire encore plus facilement, dans l'approximation linéaire par morceaux, vous fixez le nombre de morceaux à 500, si le motif > 500

Et vous n'avez pas besoin d'une grande variété de tailles de fenêtres. De 200 à 800 là... par étapes de 20-50. Tout va voler. Ou peut-être pas, je ne sais même pas pourquoi c'est nécessaire) mais les échantillons vidéo sont rapides, mais les modèles sont terriblement laids.

Avez-vous quelque chose dans alglib pour compresser et décompresser les graphiques ?

J'en vois quelques-uns sur l'interpolation. Laquelle est la meilleure pour nous ? Lequel est le plus rapide ?

 

Je crois que je l'ai trouvé. D'une grille à l'autre.

https://www.alglib.net/interpolation/spline3.php

Interpolation rapide de la grille par lots

fonction spline1dconvcubique

Cette fonction résout le problème suivant : étant donné un tableau de valeurs de fonction y[]
dans les anciens nœuds x[] et les nouveaux nœuds x2[], elle calcule et renvoie un tableau de valeurs de fonction y2[]
(calculé dans x2[]).

Cette fonction donne le même résultat que l'appel de Spline1DBuildCubic () suivi de
une séquence d'appels Spline1DDiff (), mais elle peut être plusieurs fois plus rapide lorsque
appelle des X[] et X2[] ordonnés.

PARAMÈTRES D'ENTRÉE :
X-anciens nœuds de la spline
Valeurs de la fonction Y
X2-nouveaux nœuds de la spline

PARAMÈTRES SUPPLÉMENTAIRES :
N-nombre de points :
* N>
=2
* s'il est défini, seuls les N premiers points de X/Y sont utilisés
* s'il n'est pas défini, automatiquement déterminé par les dimensions X/Y
(len (X) doit être égal à len (Y))
BoundLType - type de condition limite gauche
BoundL-condition limite gauche (première ou seconde dérivée,
selon BoundLType)
BoundRType - type de condition limite droite
BoundR-condition limite droite (première ou seconde dérivée,
selon Boundr type) xml-ph-0009@de
* N2>=2
* si spécifié, seuls les N2 premiers points de X2 sont utilisés
* si non spécifié, automatiquement déterminé par la taille de X2

PARAMETRES DE SORTIE :
F2-valeurs des fonctions à X2[]

BUNDR

La sous-routine trie automatiquement les points, donc l'appelant peut passer un tableau non trié.
Les valeurs de la fonction sont réordonnées correctement lorsqu'elles sont renvoyées, de sorte que F2[I] est toujours
égal à S(X2[I]), quel que soit l'ordre des points.

RÉGLAGE des valeurs limites :

Les paramètres BoundLType/BoundRType peuvent avoir les valeurs suivantes :
* -1, ce qui correspond à des conditions limites périodiques (cycliques).
Dans ce cas :
* BoundLType et BoundRType doivent tous deux être égaux à -1.
* BoundL/BoundR sont ignorés
* Y[last] est ignoré (en supposant qu'il soit égal à Y[first]).
* 0, ce qui correspond à une spline parabolique-complète
(BoundL et/ou BoundR sont ignorés).
* 1, qui correspond à la condition limite de la première dérivée
* 2, qui correspond à la condition limite de la seconde dérivée
* La valeur par défaut est BoundType=0

TASKS WITH PERIODIC Boundary Conditions :

TASKS with periodic boundary conditions have Y[first_point]=Y[last_point].

Toutefois, ce sous-programme ne vous demande pas de spécifier des valeurs égales pour le premier et le dernier point de
- il les force automatiquement à être égaux en copiant Y[premier_point] (correspondant au X [] le plus à gauche, minimal) sur
Y[dernier_point]. Il est toutefois recommandé de transmettre des valeurs consécutives de Y [],
, c'est-à-dire de faire en sorte que Y[premier_point]=Y[dernier_point].

-- DRAFT PROJECT --
Copyright 03.09.2010 Bochkanov Sergey

Spline interpolation and fitting - ALGLIB, C++ and C# library
  • www.alglib.net
Cubic spline interpolation/fitting is a fast, efficient and stable method of function interpolation/approximation. ALGLIB package provides you with dual licensed (open source and commercial) implementation of spline-related functionality in several programming languages, including our flagship products: ALGLIB for C++, a high performance C++...
 
elibrarius:

Y a-t-il quelque chose dans l'algorithme pour compresser et décompresser les graphiques ?

Sur l'interpolation, j'en vois plusieurs. Laquelle nous conviendra le mieux ? Et lequel est le plus rapide ?

Linéaire est le plus rapide, les autres peuvent être plus précis.
 

Filtrage adaptatif

Idée pour les ts. Assembler le système sur un "mashka", les "mashka" changent de manière adaptative avec les ns.

 
Rorschach:

Filtrage adaptatif

Idée pour les ts. Assembler le système sur un "mashka", les "mashka" changent de manière adaptative avec les ns.

Qu'est-ce que vous attendez ?

 
mytarmailS:

Qu'est-ce que vous attendez ?

Qu'y a-t-il sur les nouvelles données ?

 
Maxim Dmitrievsky:

C'est quoi ces nouvelles données ?

Autant que je me souvienne, le TS a fonctionné pendant un certain temps et est mort...

La filtration au sens habituel (outils, filtres, etc.) est toujours un retard, un retard sur le marché est une fuite.....

Vous devriez créer un paradigme différent (sans délais), des niveaux par exemple...