L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3253

 
Maxim Dmitrievsky #:
Comment cela se passe-t-il ?

https://www.mql5.com/ru/docs/constants/chartconstants/enum_timeframes

Identifiant

Description de l'identifiant

PERIOD_CURRENT

Période en cours

PERIOD_M1

1 minute

PERIOD_M2

2 minutes

PERIOD_M3

3 minutes

PERIOD_M4

4 minutes

PERIOD_M5

5 minutes

PERIOD_M6

6 minutes

PERIOD_M10

10 minutes

PERIOD_M12

12 minutes

PERIOD_M15

15 minutes

PERIOD_M20

20 minutes

PERIOD_M30

30 minutes

PERIOD_H1

1 heure

PERIOD_H2

2 heures

PERIOD_H3

3 heures

PERIOD_H4

4 heures

PERIOD_H6

6 heures

PERIOD_H8

8 heures

PERIOD_H12

12 heures

PERIOD_D1

1 jour

PERIOD_W1

1 semaine

PERIOD_MN1

1 mois

Документация по MQL5: Константы, перечисления и структуры / Константы графиков / Периоды графиков
Документация по MQL5: Константы, перечисления и структуры / Константы графиков / Периоды графиков
  • www.mql5.com
Периоды графиков - Константы графиков - Константы, перечисления и структуры - Справочник MQL5 - Справочник по языку алгоритмического/автоматического трейдинга для MetaTrader 5
 
Je ne pourrai pas le faire aussi rapidement, pas avant ce soir ou l'autre jour.
 
Maxim Dmitrievsky #:
Je ne pourrai pas le faire si tôt, plus près du soir, ou l'autre jour.
Il fait beau))))
 
Débordement de mémoire sur des petites TF. La mémoire déborde avec 16 osu et un fichier d'échange (swap sur un mac) de 30gig. Eh bien, il y a une matrice de corrélation de 50k par 50k, par exemple.

Pandas et Nampay se plantent, ils ne sont pas conçus pour les données volumineuses. Je vais essayer dask. Ou filtrer l'historique.

Bref, que MO ne tire pas sur du matériel ordinaire, que cette approche.
 
Maxim Dmitrievsky #:
Débordement de mémoire sur des petites TF. La mémoire déborde avec 16 osu et un fichier d'échange (swap sur un mac) de 30gig. Il y a une matrice de corrélation de 50k par 50k, par exemple.

Pandas et Nampay plantent, ce n'est pas conçu pour les grosses données. Je vais essayer dask. Ou filtrer l'historique.

Bref, que MO ne tire pas sur du matériel ordinaire, que cette approche.
Faites-vous de la quantification ? L'objectif principal de la quantification est de réduire la taille des données. Un float de 4 octets devient un uchar ou un char de 1 octet.
Une matrice de 16 g deviendra une matrice de 4 g.
.


Et tous les calculs sont effectués dans la mémoire vive - vous devez en ajouter. La mémoire est peu coûteuse de nos jours.

 
Forester #:
Pratiquez-vous la quantification ? L'objectif principal de la quantification est de réduire la taille des données. Un float de 4 octets devient un uchar ou un char de 1 octet.
Une matrice de 16 g deviendra une matrice de 4 g.
.


Tous les calculs sont effectués dans la mémoire vive - il faut en ajouter. La mémoire est peu coûteuse de nos jours.

Je ne sais pas comment calculer la corrélation

Il n'est pas si facile d'ajouter de la mémoire à un macbook). C'est encore extrêmement inefficace pour les séries temporelles, il faut que je le refasse d'une manière ou d'une autre

D'autant plus que je vais descendre une autre TF et avoir besoin de 5 fois plus de ressources.

Est-ce qu'il sera efficace de calculer par SQL ?

 
Maxim Dmitrievsky #:

Je ne sais pas comment calculer la corrélation par la suite

Il n'est pas facile d'ajouter de la mémoire à un macbook ) C'est encore très inefficace pour les séries temporelles, j'ai besoin de le refaire d'une manière ou d'une autre

D'autant plus que je vais descendre à un TF inférieur et avoir besoin de 5 fois plus de ressources.

Il existe une fonction de calcul de double corrélation dans alglib. Je pense qu'il suffit de changer toutes les variables en char/uchar et tout fonctionnera. Il y a des dizaines d'autres fonctions utilisées qui ont besoin d'être refaites aussi. Et de CMatrixDouble, passez aux tableaux dynamiques ou à autre chose.

Pearson product-moment correlation matrix                        |
//| INPUT PARAMETERS:                                                |
//|     X   -   array[N,M], sample matrix:                           |
//|             * J-th column corresponds to J-th variable           |
//|             * I-th row corresponds to I-th observation           |
//|     N   -   N>=0, number of observations:                        |
//|             * if given, only leading N rows of X are used        |
//|             * if not given, automatically determined from input  |
//|               size                                               |
//|     M   -   M>0, number of variables:                            |
//|             * if given, only leading M columns of X are used     |
//|             * if not given, automatically determined from input  |
//|               size                                               |
//| OUTPUT PARAMETERS:                                               |
//|     C   -   array[M,M], correlation matrix (zero if N=0 or N=1)  |
//+------------------------------------------------------------------+
static bool CBaseStat::PearsonCorrM(const CMatrixDouble &cx,const int n,
                                    const int m,CMatrixDouble &c)


Et si vous avez un programme fait maison, vous devrez aussi faire de la quantification, si vous n'avez pas un paquetage prêt à l'emploi qui le fait.

 
Maxim Dmitrievsky #:
serait-il efficace de lire SQL ?
Je n'en sais rien
 
Maxim Dmitrievsky #:
Débordement de mémoire sur des petites TF. La mémoire déborde avec 16 osu et un fichier d'échange (swap sur un mac) de 30gig. Il y a une matrice de corrélation de 50k par 50k, par exemple.

Pandas et Nampay se plantent, ils ne sont pas conçus pour les grandes données. Je vais essayer dask. Ou filtrer l'historique.

Bref, que MO ne tire pas sur du matériel ordinaire, que cette approche.

Pourquoi avez-vous besoin d'une matrice de corrélation ?

Il y a un modèle, il y a un tableau d'historique avec lequel comparer le modèle, quel est le problème ?

 
mytarmailS #:

Pourquoi avez-vous besoin d'une matrice de corrélation ?

Il y a un modèle, il y a un tableau de l'histoire avec lequel comparer le modèle, quel est le problème ?

Il n'y a pas de modèle, les modèles sont recherchés par la matrice de corrélation.