L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 544

 
Maxim Dmitrievsky:

Il est possible que votre moniteur soit perturbé par des couleurs parfois difficiles à distinguer parce qu'il n'est pas correctement calibré.

Qu'avez-vous construit ?

Il n'y a rien de tel.

Vous vous souvenez que je vous ai dit que la livre est dans la mauvaise couleur sur le graphique d'arbitrage.

Ce que vous avez construit est un secret.

 
Renat Akhtyamov:

Cette option n'existe pas.

Vous vous souvenez quand je vous ai dit que la livre sur le graphique d'arbitrage était de la mauvaise couleur.

ce que j'ai construit est un secret.


J'ai toutes les couleurs assorties.

 

Pas sur le marché, mais très utile et sur l'approche générale pour construire un modèle de manière efficace (à n'importe quelle étape, quelque chose pourrait mal tourner et nous ne nous en rendrions même pas compte) :


 

Apprentissage sans enseignant (clustering) et RL(apprentissage par renforcement). Dans le but de réduire les paramètres à optimiser. Quelqu'un a-t-il réfléchi à la manière dont le regroupement peut être appliqué ? La deuxième solution est plus compliquée, il faut des paquets spécialisés.

exemple : https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/

https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/

Unsupervised candlestick classification for fun and profit – part 1
Unsupervised candlestick classification for fun and profit – part 1
  • 2015.11.10
  • Kris Longmore
  • robotwealth.com
Candlestick patterns were used to trade the rice market in Japan back in the 1800’s. Steve Nison popularised the idea in the western world and claims that the technique, which is based on the premise that the appearance of certain patterns portend the future direction of the market, is applicable to modern financial markets. Today, he has a...
 
Maxim Dmitrievsky:

Apprentissage sans enseignant (clustering) et RL (apprentissage par renforcement). Dans le but de réduire les paramètres à optimiser. Quelqu'un a-t-il réfléchi à la façon dont le regroupement peut être appliqué ? La deuxième solution est plus compliquée, il faut des paquets spécialisés.

exemple : https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/

https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/

J'ai commencé à penser à l'apprentissage par renforcement. Il me semble que c'est ce qu'il faut pour les échanges.
 
Aleksey Terentev:
Je commence à réfléchir à l'apprentissage par renforcement. Il me semble que c'est ce qu'il faut pour les échanges.

Moi aussi, je maîtrise Python en même temps... R est ennuyeux. Il y avait un ancien article sur la couche de Kohonen par o_o, il a écrit quelque chose sur les avantages et ainsi de suite sans exemples et développement.

https://www.mql5.com/ru/articles/1562

Рецепты нейросетей
Рецепты нейросетей
  • 2009.02.12
  • o_o
  • www.mql5.com
Не так давно - на заре технического анализа, когда компьютеры были далеко не у каждого биржевика - появлялись люди, которые пытались предсказывать будущие цены по ими же придуманным законам и формулам. Таких людей часто называли шарлатанами. Время шло, усложнялись методы обработки информации, и теперь очень сложно найти равнодушного к...
 
Maxim Dmitrievsky:

Moi aussi, je maîtrise Python en même temps... R est ennuyeux. Il y avait un ancien article sur la couche de Kohonen par o_o, il a écrit quelque chose sur les avantages et ainsi de suite sans exemples et développement.

https://www.mql5.com/ru/articles/1562

J'ai écrit dans pluses qt et opennn, franchement, rien de plus que mlp (opennn) n'a encore été développé.
En fait, je peux vous ajouter comme contrepartie à mon référentiel, je vais vous expliquer mon schéma de travail.
 
Aleksey Terentev:
J'ai utilisé qt et opennn, franchement, rien n'a été développé plus longtemps que mlp (opennn).
En général, je peux vous ajouter comme contrepartie à mon référentiel, je vous expliquerai comment cela fonctionne.

Je crains d'avoir besoin d'en apprendre un peu plus d'abord, je ne suis pas encore un bon programmeur :) peut-être plus tard dans l'année prochaine.

 
Maxim Dmitrievsky:

Apprentissage sans enseignant (clustering) et RL (apprentissage par renforcement). Dans le but de réduire les paramètres à optimiser. Quelqu'un a-t-il réfléchi à la façon dont le regroupement peut être appliqué ? La deuxième solution est plus compliquée, il faut des paquets spécialisés.

exemple : https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-1/

https://robotwealth.com/unsupervised-candlestick-classification-for-fun-and-profit-part-2/

Le regroupement est également une méthode intéressante. Je pense qu'elle devrait être appliquée avant la formation d'un modèle, car de cette façon, les paramètres qui ne sont pas du tout corrélés seront éliminés.
Je le garde aussi à l'esprit. Je n'arrive pas à mettre la main dessus.
 
Aleksey Terentev:
Le clustering est également une méthode intéressante. Je pense qu'il devrait être utilisé avant la formation d'un modèle, car de cette façon, vous pouvez filtrer les paramètres qui ne sont pas du tout corrélés.
Je le garde aussi à l'esprit. Je n'arrive pas à mettre la main dessus.

surtout si nous utilisons le clustering multidimensionnel, nous pouvons essayer d'alimenter des vecteurs avec des caractéristiques et des vecteurs avec un décalage de, disons, des incréments ... pour les diviser en groupes - quelles caractéristiques correspondent à quels incréments dans le futur

puis appliquer à cet ensemble pour la formation NS, par exemple... c'est-à-dire comme le datamining

oui, exactement avant la formation ... ou séparément pour le TS