L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3250

 
Andrey Dik #:

et qui danse au son du tambourin ?

J'ai dû réfléchir longuement pour trouver comment l'expliquer sur mes doigts.

La réponse est naturellement aussi simple qu'un œuf.

Il y a eu un fil de discussion très cool dans lequel j'ai un message :

L'échec à la fin du trading est dû au fait que le test se termine sur des positions non fermées - MQL4 et MetaTrader 4 - MQL5

Il y a 10 ans, j'ai déjà fait de tels programmes, et vous n'avez pas de tels profits ici, même pas dans les tests.

Et dans la vraie vie, cet EA a piétiné autour de zéro et aucune croissance, absolument.

La conclusion est donc évidente

le trading réel ne sera jamais comme le graal d'un testeur.

qui, entre autres, est piloté par le système MOSHKA

Mais pour gagner de l'argent de façon constante, et de plus en plus, il est nécessaire de ne pas faire de prévisions, pas du tout.

Il faut comprendre l'algorithme, c'est-à-dire le fonctionnement de tout marché à prix flottant.

L'algorithme est le même, à 100 %.

et ce n'est qu'après cela que vous aurez une indication comme celle-ci, qui soulignera la possibilité de gagner de l'argent.

C'est là tout l'intérêt, après cela, vous n'en avez plus besoin du tout.

;)

mentir ?

Non,

Je joins les chiffres de la vie réelle aussi.

et le solde avec un moins, certainement pas une démo ;))))))
Для любителей меряться... достижениями))) - Провал в конце торгов - это потому что тест заканчивается на незакрытых позициях.
Для любителей меряться... достижениями))) - Провал в конце торгов - это потому что тест заканчивается на незакрытых позициях.
  • 2013.11.18
  • www.mql5.com
Единственное что смущает во первых провал в конце торгов. ну и максимальная прибыльная сделка меньше самой большой убыточной. Провал - это потому что тест заканчивается на незакрытых позициях. и сравниваются позиции - предыдущая закрытая и последующая незакрытая
Dossiers :
666.png  21 kb
6666.png  3 kb
 
Maxim Dmitrievsky #:

À l'origine, je m'intéressais à la manière de rechercher des motifs dans des tableaux multidimensionnels sans MO.

Est-il exact de dire qu'il s'agit de la tâche principale de MO ?

 
Renat Akhtyamov #:

J'ai dû réfléchir longuement pour trouver comment l'expliquer sur mes doigts.

...

Merci, notre avis vous est très précieux !

 
Maxim Dmitrievsky #:

Je suis encore en train de compter toutes les paires possibles à la fois. Il y a encore beaucoup d'entrées que je veux essayer. Ce n'est pas grave. C'est juste que dans STUMPY, il est possible de calculer approximativement et d'affiner ensuite. Vous obtenez une accélération notable, en plus du parallélisme et de l'utilisation du GPU. Je vais probablement passer complètement à ce paquet.

L'essentiel est de ne pas oublier de signaler les endroits où les poissons ne sont absolument pas présents.

 
fxsaber #:

Est-il exact de dire qu'il s'agit là de la principale mission du ministère de la défense ?

Pour l'essentiel, oui

 
Renat Fatkhullin #:

Le 3980 a implémenté les méthodes Conjugate pour les types complex, vector<complex> et matrix<complex>. Elles effectuent la conjugaison pour les nombres complexes.

Ils ont également ajouté le traitement de la sortie du modèle ONNX du type Sequence of maps. La fonctionnalité du Runtime ONNX a été sérieusement améliorée.

Et il donne des indices maintenant, super

Il s'avère que c'est un tableau de structures

vectorf in = vector<float>::Zeros(SAMPLE_SIZE);
   static vector out(1);
   
   struct abc 
     { 
      long a[];     
      float b[];
     };
   
   abc out2[1];
  
   OnnxRun(ExtHandle,ONNX_DEBUG_LOGS,in,out,out2);

Il n'y a donc plus d'erreurs pour out2 maintenant. Je vérifierai à nouveau plus tard.

 
Forester #:

Je pense que la corrélation sera influencée par les nombres les plus importants en termes de valeur abs. Par exemple, une variation des volumes de 10000 et 10100 et, en arrière-plan, une variation des prix de 0,00040 et 0,00400 seront microscopiques et auront peu d'effet sur la corrélation de l'ensemble. Je procéderais à une normalisation pour tester cette hypothèse.

J'ai une période qui augmente régulièrement, donc peut-être que cela n'a pas d'effet

Je vais essayer.

 
Maxim Dmitrievsky #:

)) Je l'ai vu aussi

Je m'intéressais à l'origine à la manière de rechercher des modèles dans des tableaux multidimensionnels sans MO. Jusqu'à présent, je n'ai rien trouvé de mieux que de rassembler toutes les mesures en une seule et de calculer par corrélation (ce qui est assez rapide). Je suppose qu'il faut parfois normaliser les valeurs pour qu'elles ne soient pas trop différentes.

Suivre mes traces d'il y a 3 à 5 ans.....

Tout ce que vous faites et ce à quoi vous pensez, je l'ai déjà publié ici, avec des graphiques, des réflexions... drôle....


J'ai trouvédeux solutions pour rechercher des modèles dans des données multivariées, l'une sans MO et l'autre avec MO.

1) (SANS MO)

Réduire la dimensionnalité des données à plusieurs dimensions en utilisant n'importe quel algorithme de réduction de la dimensionnalité (ACP, t-sne, umap, etc.).

Vous avez donc 300 caractéristiques, et vous obtenez 2-5...10..., puis vous comparez les modèles par proximité ou par regroupement....

Il s'agit en quelque sorte d'une pratique reconnue pour travailler avec des données.


2) (AVEC MO)

(Approche de mon auteur) Nous disposons de données multivariées avec, par exemple, 200 caractéristiques.

1) Nous choisissons le modèle que nous voulons.

2) Entraînement d'un modèle de classification binaire (ce modèle/ PAS ce modèle), c'est-à-dire que sur la piste, nous avons une observation étiquetée "modèle" et de nombreuses observations étiquetées "PAS modèle".

3) Nous entraînons le modèle à faire la distinction entre motif et PAS motif.

4) Lors du test, nous faisons une inférence probabiliste à partir du MO par la classe "motif" et nous observons les pics de probabilité.

C'est ainsi que nous pouvons contourner élégamment le problème des caractéristiques multidimensionnelles et rechercher les sous-modèles dont nous avons besoin.

 
fxsaber #:

Est-il exact de dire qu'il s'agit là de la principale mission du ministère de la défense ?

Ce n'est pas exact.

 

Et donc, juste une réplique.

La corrélation n'a PAS besoin d'être normalisée, il ne s'agit pas d'une distance euclidienne, la normalisation est déjà intégrée dans la corrélation.