L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1555

 
Aleksey Vyazmikin:

L'idée du mélange est intéressante, mais je pense que vous devez randomiser le mouvement des prix d'un point clé à un autre. Et les blocs eux-mêmes devraient être créés en utilisant ZZ, alors cela ressemblera vraiment à un marché.

Ensuite, le modèle capturera les modèles qui mènent à ces extrema. Et les nouvelles données peuvent s'avérer être un non-sens.

mon modèle apprend à ne pas être lié à la forme du mouvement des prix, mais à apprendre de petits modèles comme le regroupement de la volatilité, qui distingue le marché du SB. C'est donc de l'économétrie pure(dans ma version).

J'ai optimisé, et j'ai réalisé que mon ordinateur portable ne peut plus le supporter. Il faut que je trouve du matériel décent. Mais cela me poussera à un code sous-optimal, donc je verrai ce que je peux faire.

La deuxième option est de jeter le catbust et de réécrire tout dans la forêt en mql. Mais il est plus pratique d'enquêter en python
 
Maxim Dmitrievsky:

alors le modèle capturera les modèles qui mènent à ces extrêmes. Et d'après de nouvelles données, cela pourrait s'avérer être une absurdité.

mon modèle apprend à ne pas être lié à la forme du mouvement des prix, mais à apprendre de petits modèles comme le regroupement de la volatilité, qui distingue le marché du SB. C'est donc de l'économétrie pure (dans ma version).

J'ai optimisé, et j'ai réalisé que mon ordinateur portable ne peut plus le supporter. Il faut que je trouve du matériel décent. Mais cela me poussera vers un code sous-optimal, donc je verrai ce que je peux faire.

Je ne sais pas, à mon avis le fait de découper les clusters par ZZ est productif, surtout si on y ajoute les règles de construction moyennes du marché. Le fait est qu'un point peut être atteint par différents chemins, et que l'échantillon ne se concentre que sur un petit ensemble de ces chemins, ce qui permet d'équilibrer l'échantillon. Peut-être avons-nous des objectifs différents, et nous pensons donc différemment à ce qui fonctionnerait le mieux pour une étude particulière. Vous avez seulement la règle des clusters de même taille, ce qui génère juste SB si les prédicteurs prennent des données aux jonctions des deux clusters...

Et le fer - oui, prenez-le, s'il accélère le vol de la fantaisie !

 
Aleksey Vyazmikin:

Je ne sais pas, à mon avis il est productif de découper les clusters par ZZ, surtout si on ajoute les règles de construction moyennes du marché. Le fait est qu'un point peut être atteint par différents chemins, et que l'échantillon ne se concentre que sur un petit ensemble de ces chemins, et donc l'échantillon sera équilibré. Peut-être avons-nous des objectifs différents, et nous pensons donc différemment à ce qui fonctionnerait le mieux pour une étude particulière. Vous avez seulement la règle des clusters de même taille, ce qui génère juste SB si les prédicteurs prennent des données aux jonctions des deux clusters...

Et le fer - oui, prenez-le si cela accélère le vol de la fantaisie !

ah, on peut aussi faire des clusters de taille différente, mais je ne suis pas sûr que cela permette de faire des économies.

Je pense que l'idée du mélange est imparfaite, mais c'est intéressant.

 
Maxim Dmitrievsky:

ah, eh bien, des groupes de différentes tailles peuvent être faits aussi, pas nécessairement pour économiser

Je pense que l'idée du mélange est imparfaite, mais c'est intéressant.

L'échantillonnage aléatoire ou le brassage (si je vous comprends bien) est l'un des moyens de réduire le dépassement. Je ne sais pas si c'est utile en régression, mais ça fonctionne bien en classification.
Il me semble qu'il y a actuellement une certaine confrontation entre les algorithmes qui rapprochent la fonction de la cible et les algorithmes qui l'empêchent. Une certaine forme de résistance se produit dans le processus d'apprentissage. Rendons la vie intéressante :-)
S'il n'y a pas de résistance, l'apprentissage se rapproche trop rapidement de la cible et le dépassement du seuil de sur-apprentissage est donc très probable.
S'il y a une résistance, mais une résistance faible, l'effet est le même.
Si la résistance est trop forte, un sous-apprentissage se produit et le modèle ne peut pas atteindre l'intervalle de confiance dans lequel se trouve la zone de généralisation, montrant ainsi de mauvais résultats pour l'apprentissage lui-même. Pas bon non plus.
Première conclusion, la résistance à l'apprentissage. Ou encore, les méthodes visant à réduire le sur-apprentissage devraient être équilibrées par rapport à l'algorithme de base afin d'amener les fuknts avec une cohérence enviable à l'intervalle de confiance, mais en aucun cas aller au-delà ou le faire très rarement.
 
Mihail Marchukajtes:
L'échantillonnage ou le mélange aléatoire (si je vous comprends bien) est un moyen de réduire le surentraînement. Je ne sais pas si c'est utile en régression, mais ça fonctionne bien en classification.
Il me semble qu'il y a actuellement une certaine confrontation entre les algorithmes qui rapprochent la fonction de la cible et les algorithmes qui l'empêchent. Une certaine forme de résistance apparaît dans le processus d'apprentissage. Pour que la vie ne ressemble pas à du miel :-)
S'il n'y a pas de résistance, l'apprentissage se rapproche trop rapidement de la cible et le dépassement du seuil de sur-apprentissage est donc très probable.
S'il y a une résistance, mais qu'elle est faible, l'effet est le même.
Si la résistance est trop forte, un sous-apprentissage se produit et le modèle ne peut pas atteindre l'intervalle de confiance dans lequel se trouve la zone de généralisation, montrant ainsi de mauvais résultats pour l'apprentissage lui-même. Pas bon non plus.
Première conclusion, la résistance à l'apprentissage. Ou encore, les méthodes visant à réduire le sur-apprentissage doivent être équilibrées par rapport à l'algorithme de base, de sorte que le fukncion arrive à l'intervalle de confiance avec une cohérence enviable, mais ne le saute en aucun cas ou ne le fait que très rarement.

C'est vrai, mais quand il n'y a pas de régularités dans les retours, c'est le travail d'un homme mort).

 
Aleksey Vyazmikin:

L'idée du mélange est intéressante, mais il me semble que vous devez randomiser le mouvement des prix d'un point clé à un autre. Et les blocs eux-mêmes devraient être créés à l'aide de ZZ, et alors cela ressemblera à un marché.

N'utilisez pas ZZ ou d'autres indicateurs supplémentaires. Seulement OHLC pour plusieurs délais (les délais doivent différer de 4 à 6 fois). Par exemple, 1-5-30-H3... dans un délai d'un mois. Sélectionnez-le vous-même) et, peut-être, plus de tics pour l'alerte précoce.

Par les prix des maximums et minimums séparément des structures convolutionnelles. Par OHLC - la structure de récurrence. Et ainsi de suite pour tous les prix d'occasion. Les signaux de tout cela sont ensuite transmis, par exemple, au réseau maillé complet.

De plus, entrez les ticks passés par le réseau de récurrence dans l'une des entrées du réseau à maille complète.

Optimiser la vitesse de l'augmentation des dépôts. Par conséquent, le maillage doit décider lui-même du volume du lot et sélectionner les points d'ouverture et de fermeture. Comme ça.

 
Eugeni Neumoin:

N'utilisez pas du tout ZZ ou d'autres indicateurs supplémentaires. Seulement OHLC de plusieurs tf's (les tf's devraient différer par un facteur de 4-6. Par exemple, 1-5-30-H3... dans un délai d'un mois. Sélectionnez-le vous-même) et, peut-être, plus de tics pour l'alerte précoce.

Par les prix des maximums et minimums séparément des structures convolutionnelles. Par OHLC - la structure de récurrence. Et ainsi de suite pour tous les prix d'occasion. Les signaux de tout cela sont ensuite transmis, par exemple, au réseau maillé complet.

De même, entrez les ticks passés par le réseau de récurrence dans l'une des entrées du réseau à maille complète.

Optimiser la vitesse de l'augmentation des dépôts. Par conséquent, le maillage doit décider lui-même du volume du lot et sélectionner les points d'ouverture et de fermeture. Comme ça.

Que proposez-vous comme fonction cible pour les réseaux intermédiaires ? C'est-à-dire, à quoi doivent-ils être formés ?
 
Eugeni Neumoin:

N'utilisez pas du tout ZZ ou d'autres indicateurs supplémentaires. Seulement OHLC de plusieurs tf's (les tf's devraient différer par un facteur de 4-6. Par exemple, 1-5-30-H3... dans un délai d'un mois. Sélectionnez-le vous-même) et, peut-être, plus de tics pour l'alerte précoce.

Par les prix des maximums et minimums séparément des structures convolutionnelles. Par OHLC - la structure de récurrence. Et ainsi de suite pour tous les prix d'occasion. Les signaux de tout cela sont ensuite transmis, par exemple, au réseau maillé complet.

De plus, entrez les ticks passés par le réseau de récurrence dans l'une des entrées du réseau à maille complète.

Optimiser la vitesse de l'augmentation des dépôts. Par conséquent, la maille doit décider elle-même du volume du lot et sélectionner les points d'ouverture et de fermeture. Comme ça.

Et il y a un noeud sur le dessus).

 
Elibrarius:
Que proposez-vous comme fonction cible pour les filets intermédiaires ? Que devons-nous leur enseigner ?

Sur le taux d'augmentation des dépôts. Il s'agit de la fonction cible. La convolution des aigus et la convolution des graves sont des analogues de ZZ. Il révèle des fractales d'ondes. Les structures de récurrence selon OHLC - combinaisons de chandeliers - modèles de chandeliers (fractales) sont capturées ici.

Les grilles basées sur des données provenant de différentes TF identifient les fractales sur différentes TF. La fonction cible de la vitesse d'augmentation du dépôt définit dans quelle mesure les fractales apparaissant sur différents plis doivent être prises en compte.

Maxim Dmitrievsky:

et un nœud sur le dessus)

C'est pour les amateurs.


 
Eugeni Neumoin:

Du taux auquel le dépôt augmente. Il s'agit de la fonction cible.

De quoi est constitué le dépôt ? A partir des commandes d'achat/vente/attente.

Ces commandes seront formées par le NS final. Et ensuite les prédire.
Sur quoi les réseaux intermédiaires doivent-ils être formés ? Zigzags ? Afin d'entraîner un réseau, il faut qu'il montre une réponse. Quel algorithme zigzag et avec quels paramètres proposez-vous d'utiliser comme signal d'entraînement ?