L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1335

 
Aleksey Vyazmikin:
Maxim, j'ai échangé l'échantillon par endroits - pour la formation et la validation, j'ai laissé celui du test - quel sera le résultat basé sur le dogme scientifique ? Je ne me connais pas encore, le traitement n'est pas encore terminé.

Si vos données et votre modèle sont adéquats, alors en théorie le résultat devrait s'aggraver.

 

Il y a quelque chose que je ne comprends pas dans votre ministère de la Défense. J'ai l'impression que vous donnez simplement au ministère de la défense un ensemble de données, de prédicteurs, etc., et que vous lui dites : "Maintenant, allez chercher des bénéfices pour moi, et plus il y en a, mieux c'est".

C'est comme - voici un cheval pour toi, Ivan, voici une épée et un bouclier, et maintenant va me ramener l'oiseau de feu, selon la rumeur - quelque part là-bas, au-delà de la mer, au-delà de l'océan. Si tu ne le trouves pas, je te donne une hache. Au moins, Ivan avait le Petit Cheval bossu, qui savait tout, mais le ministère de la Défense est seulement capable de trouver quelque chose et demande : "Eh bien, qu'est-ce que c'est ? L'oiseau de feu, non ? - Non. Très bien, regardons à nouveau.

Il serait tout de même bon de donner à Ivan au moins quelques informations préliminaires, par exemple s'il est à Boukhara ou en Inde avec le Shah de tel ou tel. Il n'y a que deux endroits à visiter. Et le ministère de la défense n'est pas mal non plus, il y a moins d'options à parcourir et la tâche est formulée de manière plus concrète.

 
Yuriy Asaulenko:

Vous avez une boîte, à l'intérieur de laquelle une sorte de paysage très vallonné est créé. Nous lançons beaucoup de balles là-dedans (ce sont les sids), et notre travail consiste à nous assurer que la plupart des balles touchent les creux les plus profonds. Ce sera l'apprentissage, et c'est le principe selon lequel l'apprentissage en ME est structuré.

1. Si nous secouons légèrement la boîte, la plupart des balles ne pourront pas quitter les creux où elles ont été frappées à l'origine - l'apprentissage ne se fera pas.

2) Si nous secouons vigoureusement la boîte, certaines des balles ont une chance de frapper et de rester uniquement dans les creux les plus profonds, mais les creux moins profonds resteront non remplis car les balles en sortiront. L'apprentissage complet n'aura pas lieu.

3) Si nous secouons la boîte avec une force moyenne, seuls les creux les plus profonds et ceux du milieu seront remplis, mais les autres boules ne trouveront rien et continueront à rebondir au hasard dans la boîte. L'apprentissage est meilleur qu'en 1 et 2, mais pas non plus un as.

Les méthodes d'apprentissage ont toujours des paramètres - comment et quand exactement secouer la boîte pour obtenir l'apprentissage le plus efficace.

Si les différents "sids" ne s'additionnent pas, c'est que soit l'algorithme d'apprentissage ne fonctionne pas correctement - vous l'avez mal secoué, soit les creux profonds sur lesquels s'accrocher manquent dans notre boîte.

C'est très bien dit, mais je ne suis pas sûr que ce soit la même chose en boosting qu'en NS (ajustement aléatoire des poids dans les neurones au début de la formation), je n'ai pas pu trouver d'informations exactes sur l'implémentation. Et dans tous les cas, lancer de force des balles en différents points peut être meilleur, notamment parce que cela permet de comparer les modèles lors de la modification d'autres paramètres. La seule chose que je ne comprends pas, c'est la portée...

 
Maxim Dmitrievsky:

Par exemple, il y a un graphique, que dois-je dire ? C'est là que vous cherchez le profit, mais ne le cherchez pas parce que je ne l'aime pas, j'ai de mauvaises associations avec lui.

Exactement.)) C'est exactement ce que vous devriez dire. Et plus il y en a, mieux c'est. Ce n'est pas pour rien qu'on reste sur le marché pendant des années, on sait déjà quelque chose : si on va à droite, on perd un cheval, etc.

Et d'une manière générale, d'où viendraient les gens s'ils commençaient tout à partir de zéro, sans utiliser les connaissances et l'expérience des générations précédentes. Nous faisons en sorte que le MI fasse exactement cela.

 
Maxim Dmitrievsky:

et il dira : "Si tu es si intelligent, prends-le toi-même et vends-le sans moi".

Je l'ai ajouté là.

 
Yuriy Asaulenko:

Néanmoins, il serait bon qu'Ivan donne au moins quelques informations préliminaires, comme à Boukhara ou en Inde avec le Shah de tel ou tel. Il n'y a que deux endroits à visiter. Et le ministère de la défense n'est pas mal non plus, car il y a moins d'options et la tâche est formulée de manière plus concrète.

Je pense à la mise en œuvre, quand il y aura un post-traitement du modèle sur le résultat de la balance commerciale - le but est de se débarrasser des fausses idées sur le marché, si possible. Mais toutes ces idées devraient être codées, cela prend trop de temps malheureusement.

 
Maxim Dmitrievsky:

Pourtant, alfastar bat des joueurs professionnels à starcraft, aux échecs et au go, avec seulement un mois d'entraînement (ou moins, j'ai oublié), ce qui équivaut à ~200 ans d'expérience de joueur professionnel.

Nous ne connaissons pas la méthodologie de formation.)) Les conditions initiales et la définition du problème sont toujours présentes.

 
Yuriy Asaulenko:

Il y a quelque chose que je ne comprends pas dans votre ministère de la Défense. J'ai l'impression que vous donnez simplement au ministère de la Défense un ensemble de données, de prédicteurs, etc. et que vous lui dites : "Maintenant, allez-y et cherchez des bénéfices pour moi, et plus il y en a, mieux c'est".

C'est comme - voici un cheval pour toi, Ivan, voici une épée et un bouclier, et maintenant va me ramener l'Oiseau de feu, la rumeur dit - quelque part là-bas, au-delà de la mer, au-delà de l'océan. Si tu ne le trouves pas, je te donne une hache. Au moins Ivan avait le Petit Cheval bossu, qui savait tout, mais le MoD ne trouve que quelque chose et demande : "Eh bien, qu'est-ce que c'est ? L'oiseau de feu, non ? - Non. Très bien, regardons à nouveau.

Il serait tout de même bon de donner à Ivan au moins quelques informations préliminaires, par exemple s'il est à Boukhara ou en Inde avec le Shah de tel ou tel. Il n'y a que deux endroits à visiter. Et le ministère de la défense n'est pas mal non plus, il y a moins d'options à fouiller et la tâche est formulée de manière plus concrète.

Bien que par le nom, je peux être associé au protagoniste de votre histoire, mais pas par essence, comme je suggère juste de prendre en compte dans le MO trouver le profit maximum d'informations supplémentaires de l'expérience du commerçant, par exemple dans mon fil avec des modèles -https://www.mql5.com/ru/forum/270216.
Машинное обучение роботов
Машинное обучение роботов
  • 2018.08.02
  • www.mql5.com
Привет всем, я занимаюсь машинным обучением (МО) советников и индикаторов и решил вынести на всеобщее обсуждение свои эксперименты...
 
Maxim Dmitrievsky:

Je sais, j'enseigne les bots de la même manière, avec un succès variable jusqu'à présent (pas beaucoup d'expérience).

Par exemple, le robot a appris à négocier lui-même par essais et erreurs, pendant environ 4 minutes. A droite, la formation, à gauche, les nouvelles données.

aucune connaissance a priori ne lui a été donnée

Il existe des développements uniques de bots dotés d'intelligence artificielle, qui vont conquérir non seulement le marché, mais le monde entier.

L'apprentissage à droite n'est pas tout à fait logique. Si nous recherchons certaines informations (arguments) dans une cotation qui affecte le prix futur (fonction), alors l'apprentissage doit toujours être à gauche, sinon le problème inverse est résolu, comme trouver les arguments d'une fonction :)
 
Ivan Negreshniy:

Si vos données et votre modèle sont adéquats, alors en théorie le résultat devrait s'aggraver.

Pourquoi ? Non seulement les enjeux sont intéressants, mais aussi le raisonnement.