L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 508

 
Pas dutout:

Je pense que vous idéalisez trop et pour une raison quelconque, vous essayez de généraliser à "tous les traders" qui correspond à quoi, comme une sorte de gourou, vous ne vendez pas de cours de trading, comme un groom ?(je plaisante)


Il existe un optimum pour le risque (lot) compte tenu de l'espérance de gain. Cela ne dépend pas de la psychologie et ce n'est pas une question de "ce qui marche pour qui". Toujours d'après l'expérience empirique passée, vous pouvez vous attendre à des atterrissages plus élevés par rapport à ceux du test, par exemple, à un maximum de la moitié du dépôt pour descendre, mais le risque sera proportionnel au profit. Par exemple, si vous prenez un petit risque (<10% du dépôt par an), c'est comme négocier 10% du capital, tandis que 90% se trouve dans l'argent, il convient seulement comme une stratégie de conservation pour empêcher l'inflation mangée, mais il ne gagne pas, et 90% devrait investir dans d'autres stratégies et actifs, diversifier, et ainsi de suite. Et tout de même, le risque sera presque proportionnel au profit avec des effets mitigés mineurs de la diversification, vous ne pouvez pas supprimer significativement le risque et augmenter les profits au moyen de la gestion de l'argent.


La plupart des traders ont besoin d'un système relativement sans risque avec de très faibles drawdowns et de gros profits, sinon ils ne survivront pas au marché, c'est ce que je veux dire :) parce qu'ils n'ont pas de coussin et ne peuvent pas attendre un petit pourcentage d'augmentation. Par exemple, selon une logique comme la vôtre, si vous êtes censé faire 100% par mois, le drawdown moyen devrait être de 50%, mais c'est comme tuer, car un drawdown de 50% est un point de non-retour pour le dépôt en règle générale. Et moins de 100% par mois la majorité ne sera pas intéressée par les forums forex, vous faites un sondage, demandez qui veut combien de profit, de ces professionnels avec un bon coussin sera de 1% ... bien, dans ce forum il ya plus

Comment faire pour monter sur le marché en partant de zéro, par exemple ? Il n'y a aucun moyen

Je ne suis pas un gourou, je communique juste beaucoup avec les traders par intérêt :)
 

Eh eh...

Je ne sais pas s'il s'agit d'un troll subtil ou si vous êtes sérieusement perturbé.

Vous avez dit "tout est logique", alors pourquoi parlez-vous à nouveau de petits stops et de gros profits ? Je vous ai donné un diagramme, dans la mesure de mes capacités artistiques, où noir sur blanc il est évident que vous NE POUVEZ PAS REDUIRE substantiellement le risque SANS REDUIRE le profit, c'est-à-dire petits stops - petit profit (en moyenne, bien sûr).


Vous savez, c'est exactement ce que fait l'algotrader, il recherche les inefficacités. Et s'ils ne le peuvent pas, alors la plupart des gens n'ont rien à faire sur le marché, c'est l'histoire. Nous ne parlons pas de gestion de l'argent ou de quoi que ce soit d'autre, nous parlons de trading pur. D'où vient un tel rapport bénéfice/risque sur la photo, c'est une illusion, n'est-ce pas ? L'homme a 1 000 $, donc selon votre logique il n'a rien à gagner sur le marché avec 5-50% par an.

Vous avez peut-être un esprit mathématique, mais les mathématiques ne sont pas toujours synonymes de sobriété. Je peux prendre une formule et la présenter comme une vérité, par exemple le principe de Pareto ou le ratio bénéfices/pertes comme la vôtre, et elle ne dit rien de la réalité.

Tout le reste n'a rien à voir avec la réalité et n'est que spéculation. Quant au palefrenier, je n'ai pas besoin d'être dans le même camp que lui, il a la moitié du forum des étudiants imaginaires :)

Il s'agit d'un débat sur des choses évidentes, comme le fait de savoir si une forêt aléatoire peut extrapoler... Évidemment non, mais nous devons argumenter, choisir le concept d'extrapolation et autre chose :))

 
Vous devez être prudent :

Encore une fois, avec un certain avantage dans la prévision, par exemple53-55%, il y a une stratégie optimale de gestion du risque, la déviation de celui-ci - donnera une diminution des bénéfices, en moyenne. Il n'y a pas de différences essentielles de stratégies entre ceux qui ont 10M$ et ceux qui ont 100$, du moins sur le Forex, où 6T$ sont échangés par jour.


Il y a une énorme différence lorsque l'on négocie des montants différents sur le marché des changes, et elle est très perceptible lorsque l'on commence à négocier, surtout en HFT. A la manière des règles non écrites des courtiers. Il n'y a pas de telles liquidités parce que c'est décentralisé. Et, souvent, les stratégies qui fonctionnent pour le menu fretin ne fonctionnent pas pour le gros fretin. Des approches radicalement différentes pour négocier des montants différents.

 
Je me trompe peut-être, mais il me semble qu'il est préférable d'entraîner le réseau sur des données de prix pures plutôt que sur des indicateurs qui font habituellement une moyenne, c'est-à-dire qui introduisent un décalage.
Par exemple, il est préférable de définir des volumes hauts et bas, des volumes en tick et des volumes réels - 4 entrées par barre au total.

Pour que le réseau comprenne la forme de la courbe, il doit être alimenté par exemple avec 100 barres - soit un total de 400 entrées pour le réseau neuronal.
J'ai un historique d'entraînement d'environ 50 000 barres sur M1 pendant 3 mois.
Que pensez-vous de cette approche ?
Combien de couches internes à réaliser ? Apparemment, il en faut aussi beaucoup, par exemple 400-100-25-1.

Je pense qu'un tel réseau prendrait beaucoup de temps à apprendre. Et il peut ne pas trouver les paramètres les plus optimaux.

Et si nous faisons 1000 ou 2000 entrées ? Serait-il irréaliste d'atteindre quelque chose ?

 
C'est tout :

1) Exactement ! NON ! Pourquoi est-il interdit de le faire dans les pays développés ? Pourquoi ont-ils inventé les "investisseurs qualifiés" ?


Qu'est-ce qui leur est interdit exactement, le commerce ? ) Des centaines de % par mois sont tout à fait réalisables, comme dans toute entreprise et dans tout métier, tant que des inefficacités existent, elles sont activement exploitées, l'essentiel est de moins en parler. Ils sont toujours temporaires, c'est-à-dire qu'ils ne fonctionneront pas de manière stable toute la vie. C'est pourquoi j'ai écrit plus haut qu'il doit y avoir des critères d'arrêt adéquats pour comprendre le plus rapidement possible si le modèle a cessé de fonctionner ou non. Et tu as décidé de tout laisser tomber. 5-50% par an avec un drawdown de 2-25% et c'est tout.

 
elibrarius:
Je me trompe peut-être, mais il me semble qu'il est préférable d'entraîner le réseau sur des données de prix pures plutôt que sur des indicateurs qui font habituellement une moyenne, c'est-à-dire qui introduisent un décalage.
Par exemple, il est préférable de définir les valeurs High et Low, les ticks et les volumes réels - soit un total de 4 entrées par barre.

Pour qu'un réseau comprenne la forme d'une courbe, je dois lui fournir, par exemple, 100 barres, soit un total de 400 entrées pour le réseau neuronal.
Mon historique d'entraînement pendant 3 mois sur M1 est d'environ 50 000 barres.
Que pensez-vous de cette approche ?
Combien de couches internes à réaliser ? Apparemment, il en faut aussi beaucoup, par exemple 400-100-25-1.

Je pense qu'un tel réseau prendrait beaucoup de temps à apprendre. Et il peut ne pas trouver les paramètres les plus optimaux.

Et si nous faisons 1000 ou 2000 entrées ? Serait-il impossible de réaliser quelque chose ?


Ils le font sur des réseaux récurrents, des prix d'alimentation, je ne connais pas les détails mais ils disent que ça marche et que ça prend beaucoup de temps pour l'entraîner sur gpu, principalement sur python.

 

MO + MO = ))))


 
elibrarius:
Je me trompe peut-être, mais il me semble qu'il est préférable d'entraîner le réseau sur des données de prix pures plutôt que sur des indicateurs qui font habituellement une moyenne, c'est-à-dire qui introduisent un décalage.
Par exemple, il est préférable de définir les volumes haut et bas, les volumes en tick et les volumes réels - soit un total de 4 entrées par barre.

Pour qu'un réseau comprenne la forme de la courbe, il doit être alimenté par exemple avec 100 barres - soit un total de 400 entrées pour le réseau neuronal.
J'ai un historique d'entraînement d'environ 50 000 barres sur M1 pendant 3 mois.
Que pensez-vous de cette approche ?
Combien de couches internes à réaliser ? Apparemment, il en faut aussi beaucoup, par exemple 400-100-25-1.

Je pense qu'un tel réseau prendrait beaucoup de temps à apprendre. Et il peut ne pas trouver les paramètres les plus optimaux.

Et si nous faisons 1000 ou 2000 entrées ? Serait-il impossible de réaliser quoi que ce soit ?

Un réseau [64 GRU + 32 GRU + 2 Dense] dans un problème de classification par OHLC -> Buy/Sell (7000 barres) sur ~24 run d'entraînement donne 0.9 - 0.8 de précision. Et tout cela en 30 secondes environ.

111
 

J'ai besoin d'une formule de normalisation L2. Je n'arrive pas à le trouver. Peut-être que quelqu'un peut aider.

 
Aleksey Terentev:
Le réseau [64 GRU + 32 GRU + 2 Dense] dans un problème de classification utilisant le modèle OHLC -> Buy/Sell (7000 bar) sur ~24 cycles d'entraînement donne une précision de 0.9 - 0.8. Et tout cela en 30 secondes environ.

Comment ces résultats s'inscrivent-ils dans le commerce ? Quelle est la croissance des dépôts en % par mois/année ? Si vous vous entraînez non pas pour 7000 barres, mais pour 100000 ?