L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1045

 
Maxim Dmitrievsky:

Tant que personne ne me pousse, c'est très difficile d'aller dans cette direction, je ne fais pas de trading en ce moment, je termine le système quand je suis d'humeur... parce que là, je dois penser, et je n'aime pas penser

Je suis d'accord, j'ai le même problème. J'ai réfléchi, il y a quelque chose que vous pouvez voir (je veux dire le moniteur de compte) ou entendre ce à quoi j'ai été confronté.
 
mytarmailS:

Oui, mieux vaut passer un an sur la théorie et l'implémentation de différentes transformations que de passer 5 min en python ou R pour comprendre que ces conneries ne fonctionnent pas, la logique est la plus forte, écoutez, pourquoi ne créez-vous pas votre propre langage de programmation ? pourquoi avez-vous besoin de mql, c++ ou autre ?

Ce n'est pas la théorie qui pose problème, mais la façon dont vous la comprenez, ainsi que la bonne approche pour présenter tout ce que vous avez appris au cours de votre analyse.

Il arrive qu'une personne accomplisse un travail herculéen de collecte et de systématisation des données, mais ne parvienne pas à les appliquer correctement.

 
Farkhat Guzairov:

Il arrive qu'une personne accomplisse un travail herculéen de collecte et de systématisation des données, mais ne parvienne pas à les appliquer correctement.

Je suis d'accord, ça arrive.

 
Vizard_:

Tu m'as promis de me montrer Equi dans le ciel en automne et de tourner une vidéo d'entraînement))).

Eh bien, qui aurait cru que j'allais être poussé dans un réseau par le GIANT !!!! intercontinental transatlantique. J'ai dû passer toute la période d'essai à apprendre les ficelles du métier et à me rendre aux formations. Je suis même allé à Kazan pendant les championnats. Mais je n'ai pas abandonné le trading, même si je le faisais surtout le samedi. Et tout récemment, j'ai fait une erreur par accident et j'ai obtenu une autre amélioration des données. L'amélioration implique encore plus de séparabilité. Figure 2 ci-dessus. Cela a conduit au fait que l'optimiseur Reshetov a été recyclé, ce qui n'est pas bon pour lui en principe, car il est fondamentalement pressé pour l'incomplétude, et ici il est juste recyclé. L'analyse des données a montré des points doubles dans les régions de regroupement, indiquant que les vecteurs sont identiques, c'est-à-dire qu'ils sont des copies l'un de l'autre avec une légère différence dans le nombre de queues. De tels ensembles de données conduisent à un surentraînement lorsqu'un de ces vecteurs se retrouve dans l'échantillon de formation et l'autre dans l'échantillon de test. Dans ce cas, l'un des vecteurs doubles doit être supprimé ! Mais si l'on examine la signification de l'entrée, on commence à s'interroger sur le haut degré d'alogisme du MO. Parce que je ne vois pas l'intérêt d'une telle entrée, mais ça SCUKO fonctionne !


J'ai en quelque sorte décidé pour moi-même : Si vous tombez sur une entrée qui fonctionne, vous n'avez pas besoin de la comprendre, il suffit de l'utiliser et c'est tout...... Demandez-moi "Pourquoi ça marche ?" et je répondrai "Je ne sais pas" et continuerai à prendre de l'argent quoi qu'il arrive :-)

 
Alexander_K:

Le travail aime les imbéciles :))))

Cela vous permettra tout d'abord d'instaurer une routine et un ordre. Ensuite, le commerce se calmera.

 
Maxim Dmitrievsky:

Essayer différents modèles (prédicteurs), par exemple en construisant plusieurs modèles et en choisissant le meilleur, sur différentes données d'entrée transformées. C'est comme choisir les mots de passe des comptes. Lorsqu'il n'y a pas de connaissance a priori du sujet et des modèles.

Fait à la main.

La vidéo de Wapnick en anglais parlait de ceci

NOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Mais restons simples, supposons que nous ayons construit 10 modèles pour le même ensemble de données, MAIS avec un partitionnement aléatoire en tendance et test. Question : comment choisir le modèle qui POURRAIT le mieux représenter l'ensemble de données original ??? C'est une question fondamentale et je suis en train de construire une théorie autour d'elle. Jusqu'à présent, tout semble logique dans ma théorie, mais elle n'est pas complète.

Afin de résoudre cette question, je dois déterminer la métrique de généralisabilité des modèles résultants. J'ai lu quelques ressources ici et il s'avère que de telles mesures existent déjà, mais qu'elles surestiment toutes les valeurs. D'après ce que j'ai compris, il n'existe pas de méthodologie unifiée et efficace pour déterminer le niveau de généralisation. Il s'agit d'un problème fondamental dans le domaine de la MO. La façon dont Reshetov le résout est également une métrique et, pour le moment, c'est la meilleure solution, lorsque la spécificité et la sensibilité du modèle sont calculées, mais tout est faux. Mais qu'est-ce que c'est ? ..... est ÉNORME ! !!!! :-)

 

Je ne pensais pas que j'allais suggérer ça, mais quand même...

J'ai créé un système (indicateur) basé sur un réseau neuronal qui construit certains niveaux, il fonctionne assez bien.

La philosophie de l'indicateur est de trouver de véritables surachats/survente ou centimètres.

Il donne environ 1 à 2 signaux par semaine, si le signal est identifié correctement, il fonctionne avec une probabilité proche de 100%.


Le problème est que je ne suis pas un expert en mql et que l'indicateur est écrit en R (avec l'utilisation de différentes bibliothèques), je ne suis pas en mesure d'apprendre mql.

S'il y a un développeur ici qui est prêt à intégrer le code dans mql et à le visualiser dans mt4, je suis prêt à discuter et à aider dans le futur.

 
Mihail Marchukajtes:

NOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOOO Mais restons simples, disons que nous avons construit 10 modèles pour le même ensemble de données, MAIS avec un partitionnement aléatoire en tendance et test. Question : comment choisir le modèle qui POURRAIT le mieux représenter l'ensemble de données original ??? C'est une question fondamentale et je suis en train de construire une théorie autour d'elle. Jusqu'à présent, tout semble logique dans ma théorie, mais elle n'est pas complète.

Afin de résoudre cette question, je dois déterminer la métrique de généralisabilité des modèles résultants. J'ai lu quelques ressources ici et il s'avère que de telles mesures existent déjà, mais qu'elles surestiment toutes les valeurs. D'après ce que j'ai compris, il n'existe pas de méthodologie unifiée et efficace pour déterminer le niveau de généralisation. Il s'agit d'un problème fondamental dans le domaine de la MO. La façon dont Reshetov le résout est également une métrique et, pour le moment, c'est la meilleure solution, lorsque la spécificité et la sensibilité du modèle sont calculées, mais tout est faux. Mais qu'est-ce que c'est ? ..... est ÉNORME ! !!!! :-)

10 est à peu près rien, à partir de 2000 modèles. Le partitionnement aléatoire est présent tel quel, mais les ensembles de données changent aussi. Un ultrabook sur 1 cœur compte en 15-20 minutes.

Au fait, à propos de jpedictor - j'ai fouillé dans la version que vous m'avez donnée et dans UPOR, je n'ai pas vu de machine nucléaire... j'ai voulu la sortir pour voir comment elle fonctionne.

comment venir, camarades

je ne sais pas quoi utiliser à part l'erreur de classification ou le logloss

 
mytarmailS:

Je ne pensais pas que j'allais suggérer ça, mais quand même...

J'ai créé un système (indicateur) basé sur un réseau neuronal qui construit certains niveaux, il fonctionne assez bien.

La philosophie de l'indicateur est de rechercher un réel surachat/survente ou un centimètre.

Il donne environ 1 à 2 signaux par semaine, si le signal est identifié correctement, il fonctionne avec une probabilité proche de 100%.


Le problème est que je ne suis pas un expert en mql et que l'indicateur est écrit en R (avec l'utilisation de différentes bibliothèques), je ne suis pas en mesure d'apprendre mql.

S'il y a un développeur prêt à intégrer le code dans mql et à le visualiser dans mt4, je suis prêt à discuter et à aider dans le futur.

Non... Je n'en ai pas ici :-(

 
Maxim Dmitrievsky:

10 n'a rien à voir avec les modèles 2000. Le cloisonnement aléatoire est présent tel quel, mais les ensembles de données changent aussi. Un ultrabook sur 1 cœur compte en 15-20 minutes.

Au fait, à propos de jpedictor - j'ai fouillé dans la version que vous m'avez donnée et dans UPOR, je n'ai pas vu de machine nucléaire... j'ai voulu la sortir pour voir comment elle fonctionne.

comment venir, camarades

je ne sais pas quoi utiliser à part l'erreur de classification ou le logloss

c'est là à 100%. J'ai déjà lentement commencé à le refaire pour moi. Maintenant, installer un modèle dans MKUL est une affaire de 5 secondes...