L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3020

 
Maxim Dmitrievsky #:
La précision fonctionne bien avec des classes équilibrées. J'ai essayé toutes les mesures standard, il n'y a pratiquement aucune différence dans les résultats. La maximisation du profit est mise en œuvre par le biais de la majoration avec des transactions maximales rentables, non ?)


1) les coûts commerciaux ne sont pas pris en compte par la classification, la marque de classe peut montrer qu'il est nécessaire de vendre, mais qu'il peut être économiquement plus rentable de continuer à acheter,

la maximisation du profit en tient compte.


2) Il en va de même pour la volatilité.


3) il n'est pas clair comment mettre en œuvre les trois états acheter, vendre, ne rien faire, non pas dans le contexte des trois classes, mais simplement en ce qui concerne le commerce.


4) il n'est pas clair comment gérer les stops/teaks via le MO à travers la classification.

.....

..

..

 
Maxim Dmitrievsky #:
La précision fonctionne bien avec des classes équilibrées. J'ai essayé toutes les mesures standard, et je n'ai constaté pratiquement aucune différence dans les résultats.

Pourtant, il s'agit de valeurs différentes. Supposons pour simplifier que take profit = stop loss = 1 et spread = 0. Dans chaque transaction, nous entrons ou non - pour des raisons de simplicité, le système ne concerne que les achats (pour les ventes, laissons un modèle différent).

Précision = (Vrais positifs + Vrais négatifs)/(Vrais positifs + Vrais négatifs + Faux positifs + Faux négatifs)

Profit_total = Vrais positifs - Faux positifs

La précision semble correspondre aux exigences de la méthode de division de l'arbre, mais pas le bénéfice.

Maxim Dmitrievsky #:
La maximisation du profit est mise en œuvre par le biais d'un balisage avec des transactions maximalement rentables, n'est-ce pas ?)

Pour simplifier, toutes les transactions donnent le même profit ou la même perte (1 ou -1).

 
mytarmailS #:


1) les coûts commerciaux ne sont pas pris en compte par la classification, la marque de classe peut indiquer qu'il est nécessaire de prolonger, mais il peut être plus rentable économiquement de continuer à acheter,

la maximisation du profit en tient compte.


2) Il en va de même pour la volatilité.


3) il n'est pas clair comment réaliser les trois états acheter, vendre, ne rien faire, non pas dans le contexte des trois classes, mais spécifiquement en ce qui concerne le commerce


4) il n'est pas clair comment gérer les stops/teaks via le MO par le biais de la classification

.....

..

..

Les coûts sont pris en compte dans la majoration et c'est tout. La maximisation du profit consiste à maximiser le nombre de points gagnés moins les coûts. Il est majoré en une seule fois :)

3) Je l'ai mis en œuvre dans le dernier article.
Arrêts, sorties - cela se fait généralement après que le TS a été affiné dans l'optimiseur.

...
..,
L'essentiel est de commencer :)
 
Aleksey Nikolayev #:

Il s'agit tout de même de valeurs différentes. Supposons, pour simplifier, que l'on prenne toujours take profit = stop loss = 1 et spread = 0. Dans chaque transaction, nous entrons ou non - pour simplifier, le système ne concerne que les achats (pour les ventes, laissons un modèle différent).

Précision = (Vrais positifs + Vrais négatifs)/(Vrais positifs + Vrais négatifs + Faux positifs + Faux négatifs)

Profit_total = Vrais positifs - Faux positifs

La précision semble correspondre aux exigences de la méthode de division de l'arbre, mais pas le bénéfice.

Pour simplifier, toutes les transactions donnent le même bénéfice ou la même perte (1 ou -1).

Trop subtil, je ne comprends pas 😁 l'algorithme avec l'enseignant essaie d'approximer ce qui lui est enseigné dans l'ensemble de données d'apprentissage, quel que soit le critère d'arrêt. Toutes ces métriques sont purement auxiliaires, +-. C'est sur cela que je me base. Il me semble qu'elles ne feront qu'une différence minime, ce qui a été confirmé en les examinant. C'est donc secondaire pour l'enseignant.
 
Aleksey Vyazmikin #:

Avez-vous essayé cette approche ? (voir la section Interprétation du modèle à peu près au milieu de la page)

 
L'ordre de cette majoration est approximativement le suivant : vous prenez des transactions rentables avec un pas minimum, dans différentes directions, en fonction des fluctuations. Vous les passez en revue, en combinant les transactions unidirectionnelles en une seule et en comptant le nombre de pips en tenant compte des coûts. Si le nombre de pips est supérieur à deux, vous les combinez en un seul, sinon vous laissez les trades courts.

En un seul passage sur le graphique, Carl.
 
Maxim Dmitrievsky #:
L'ordre de cette majoration est approximativement le suivant : vous prenez des transactions rentables avec un pas minimum, dans différentes directions, en fonction des fluctuations. Vous les passez en revue, en combinant les transactions unidirectionnelles en une seule et en comptant le nombre de pips en tenant compte des coûts. Si le nombre de pips est supérieur à deux, vous les combinez en un seul, sinon vous laissez les trades courts.

En un seul passage sur le graphique, Carl.

1) Même si cela fonctionne, il s'avère que pour chaque tâche il faut inventer un algorithme béquille pour l'implémenter en tant qu'objectif prêt à l'emploi ?

N'est-il pas plus facile d'écrire un FF et de dire simplement que l'AMO est bon/mauvais, et qu'il sera bon pour n'importe quelle tâche, solution universelle... ?


2) bonne cible != AMO bien formé pour cette cible.

La cible peut être bonne, mais l'algorithme ne peut pas être entraîné pour elle, donc ce n'est pas la cible qui doit être évaluée, c'est l'AMO entraîné.

Vous vous en êtes rendu compte lorsque j'ai parlé de FF, mais je vois que vous l'avez déjà oublié.

 
mytarmailS #:

1) Même si cela fonctionne, il s'avère que pour chaque tâche il est nécessaire d'inventer un algorithme de béquille pour la mettre en œuvre en tant que cible prête à l'emploi ?

Ne serait-il pas plus facile d'écrire un FF et de dire simplement AMO - bon/mauvais, et il sera bon pour n'importe quelle tâche, solution universelle... ?


2) bonne cible != AMO bien entraînée pour cette cible.

La cible peut être bonne, mais l'algorithme ne peut pas être entraîné pour elle, et ce n'est donc pas la cible qui doit être évaluée, mais l'OMA entraînée.

Vous vous en êtes rendu compte lorsque j'ai parlé de FF, mais je vois que vous avez oublié.

Je me rends compte que vous ne comprenez pas que le FF est intégré dans l'ensemble de données. Vous confondez chaud et doux, vous faites un travail inutile.

Il apprendra comme un bébé pour tout, chaque ligne sera mémorisée.

Vous pouvez fixer d'autres objectifs. Par exemple, quels sont les accords auxquels il faut donner plus de poids. Tout cela se fait à l'étape du balisage, bien sûr.

Vous ne pouvez pas faire beaucoup de choses avec FF, ce sont des formules à trois étages.

Vous êtes comme Susanin dans MO 😀 vous traînez toujours dans le marais.
En général, je reste tranquille et je réalise tout en rentrant chez moi ou en allant au magasin. Il m'arrive d'oublier pourquoi je suis venu au magasin, mais c'est un coût.
 
Maxim Dmitrievsky #:
Je comprends, mais vous ne vous rendez pas compte que le FF est intégré dans l'ensemble de données. Vous confondez chaud et doux, vous faites un travail supplémentaire.

Il va apprendre comme un bébé pour tout, mémoriser chaque ligne.

Vous pouvez vous fixer différents objectifs. Par exemple, quels sont les métiers auxquels il faut donner le plus de poids. Tout cela se fait à l'étape du balisage, bien sûr.

Vous ne pourrez pas faire beaucoup de choses avec FF, il s'agira de formules à trois étages.

Vous êtes comme Susanin au ministère de la défense 😀 toujours à vous entraîner dans le marais.

Si tout était comme tu le dis, il n'y aurait pas de RL....


Et en général, c'est bien que chacun fasse à sa manière, plus d'avis - espace de recherche plus riche.....

Je ne le fais plus beaucoup, j'ai dépassé ce stade...

 
mytarmailS #:

Si c'était comme vous le dites, il n'y aurait pas de LR en premier lieu.

Il n'existe nulle part, seulement sur le papier.
La réalité virtuelle sert à interagir avec un environnement inconnu, à l'explorer. Que se passe-t-il si je vais dans telle ou telle direction ? Vous avez le graphique sous les yeux.