L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1765

 
Aleksey Vyazmikin:

1. Il peut y avoir des prédicteurs associés à ZZ. Comment déterminez-vous la période ZZ ? Le résultat change-t-il lorsque la période ZZ change ?

2. c'est donc compréhensible - la tendance a plus de chances de se poursuivre que de s'arrêter... Les prédicteurs ont-ils une mémoire des valeurs passées ?

3. Comment cela peut-il être négocié - si le point de pivot ne peut être déterminé ?

4. Devons-nous rechercher uniquement des points qui peuvent générer des revenus ? Par exemple, mon objectif est "le début du dessin du segment actuel ZZ chevauchera le début du dessin du segment suivant ZZ", c'est-à-dire que la décision d'entrer sur le marché et la classification se fait sur la barre suivante, après le changement du vecteur ZZ, si le segment est long, il chevauche généralement le point d'entrée - utilisez un chalut.

5. Vous avez besoin d'un mot de passe d'investisseur d'où vous obtenez les devis pour les obtenir également.

1) Vous pouvez sélectionner vous-même les paramètres ZZ, par exemple par le profit maximum, tout cela concerne la cible globale, mais dans les cibles locales vous pouvez utiliser des centaines de paramètres de ZZ différents, cela aurait du sens

2) Les prédicteurs sont différents, si l'utilisation d'une mémoire a du sens, il faut l'utiliser.

3) Premièrement : Nous pouvons faire des prédicteurs avec des cibles locales qui clarifient le point d'entrée (la cible n'est pas la direction de WP, mais un renversement/non-tour, etc.)

Deuxièmement : plus nous nous rapprochons de l'objectif global, plus les entrées seront précises.

J'ai fait une capture d'écran de la prévision de ZZ sur le graphique quelque part, si je la trouve, je la collerai ici.

J'ai trouvé le; je pense que si j'augmente la qualité à 95 %, ce sera génial ;))

Mais le faire seul est ennuyeux, et les idées s'épuisent, alors j'ai eu l'idée - d'un ensemble de données publiques, mais j'ai réalisé qu'une ((

4) C'est possible, mais n'oubliez pas que vous travaillez avec un ensemble de données locales, ce n'est qu'une partie du puzzle qui permet de tout reconstituer.

5) J'ai un script simple qui importe toujours les cotations de mt4 vers tcht à la fin d'une bougie, puis je les lis depuis R et fais ce que je veux).

Машинное обучение в трейдинге: теория, практика, торговля и не только
Машинное обучение в трейдинге: теория, практика, торговля и не только
  • 2020.04.23
  • www.mql5.com
Добрый день всем, Знаю, что есть на форуме энтузиасты machine learning и статистики...
 
Valeriy Yastremskiy:

Et comment on fait sortir les modèles de série d'ici ? Les mauvais modèles sont pressés. Trop petit. Également séparés par une dichotomie. C'est pour ça que c'est un retour sans perte. Et sans différenciation, vous obtenez l'archive et le retour au match complet ? C'est une béquille, en fait. Nous devons trouver les caractères de début et de fin des archives et sortir les sections compressibles. La comparaison entre le fichier original et le fichier dézippé n'est pas tout à fait correcte.

Comment cela fonctionne-t-il ?
 

Je ne comprends pas l'essentiel, je ne peux pas parler bourgeois. Expliquez en termes de travailleur paysan.

 

Merci, maintenant il faut extraire et séparer tous les attributs de la gamme de prix. C'est dommage que l'étude ne soit pas complète, il y a une citation :

Une étude qui utilise les noms de bébé comme indicateurs des traits culturels aux États-Unis montre que de nouveaux noms sont inventés par rapport à l'utilisation de noms des générations précédentes.

En tant qu'indicateurs de traits culturels, ils se sont révélés intéressants. Et comment ils se comparaient au monde extérieur. Ce qui prouverait la pertinence de l'étude.

Quant à l'idée de regrouper par le même comportement des traits de normes.

 
Rorschach:
Comment ça ?

il n'y a aucun moyen de le faire sans la documentation de l'archiveur. Le but de l'archivage est de présenter un long modèle connu de l'archiviste dans un code plus court, les codes ont des signes de début et de fin, comme celui de Peter Konov qui a écrit les medjs dans une chaîne de caractères et non dans une matrice. L'archive est une chaîne, il n'y a pas d'autre moyen.

 
mytarmailS:

A quoi bon, je ne comprends pas, je ne sais pas parler bourgeois, expliquez en termes de travailleur paysan.

télécharger un plugin dans chrome qui traduit le texte sélectionné.

 
Valeriy Yastremskiy:

Merci, maintenant il faut mettre en évidence et séparer toutes les caractéristiques de la gamme de prix. C'est dommage que l'étude ne soit pas donnée en entier, il y a une citation :

La façon dont les indicateurs des traits culturels qu'ils ont fait est intéressante. Et comment ils les comparaient avec le monde extérieur. Prouver la pertinence de la recherche.

Et donc des pensées de regroupement par le même comportement de normes de traits.

Oui, je continue à penser en termes de clustering... mais trop paresseux pour le moment.

 
Valeriy Yastremskiy:

il n'y a aucun moyen de le faire sans la documentation de l'archiveur. Le but de l'archivage est de présenter un long modèle connu de l'archiviste dans un code plus court, les codes ont des signes de début et de fin, comme Peter Konov en écrivant les medgians dans une chaîne, pas dans une matrice. L'archive est une chaîne, il n'y a pas d'autre moyen.

Vous pouvez prendre n'importe quel archiveur open-source, c'est +- pareil. Mais je ne le comprends pas. Encore une fois, quel est l'intérêt de se donner la peine ? Avec la même distribution de prix et de compressions aléatoires +- la même.

 
Rorschach:

Vous pouvez prendre n'importe quel archiveur open source, il compresse + - la même chose. Seulement je ne le comprends pas. Encore une fois, le sens du tripotage ? Avec la même distribution du prix et du hasard, les compressions + - sont égales.

À partir du code, on peut aussi regarder si quelque chose est égal, le remplacer et voir ce qui est remplacé. Dans tous les cas, il est nécessaire de comprendre l'algorithme de compression et les codes de caractères de compression et d'analyser le résultat de la compression pour lui donner un sens. Nous comprenons donc que l'archiveur trouve certaines régularités et c'est tout. Envoyez-moi un lien vers un archiveur open source, j'y jetterai un œil.

 
Maxim Dmitrievsky:

Oui, je continue à penser dans la direction du clustering... mais jusqu'à présent je suis paresseux.

J'aimerais d'abord décider des attributs, je n'ai pas beaucoup de temps et j'augmente seul. Je dois écrire mes pensées sur l'énoncé du problème)))) jusqu'à présent, juste des fragments de mes pensées...