L'étiquette du marché ou les bonnes manières dans un champ de mines - page 18

 
paralocus >> :

Neutron, je voulais aussi vous interroger sur la formation de Hebb (lue par Wasserman). Il semble que la formule de correction des poids y soit très simple :

Wij(t+1) = Wij(t) + [OUTi(t) - OUTi(t-1)]*[OUTj(t) - OUTj(t-1)] et aucune chute de gradient. Est-ce que ça va marcher ?

Lisez pour quels réseaux et dans quels cas il est utilisé.

 
HideYourRichess писал(а) >>

J'ai une taille fixe. De même, si les montants de vos gains et de vos pertes sont distribués selon une loi normale, je soupçonne que cela correspond à un montant fixe.

Maintenant, les tailles de mes pots-de-vin perdants et gagnants sont également égales. Pour cela, j'ai dû creuser dans tous les TC, en les affinant à une taille fixe des astuces, mais vous pouvez utiliser toute la puissance de la MM optimale, qui dans ce cas a une représentation analytique précise et, en outre, à long terme, lors du réinvestissement des fonds, aucun autre TS différent de celui-ci ne donnera pas plus de rentabilité ! Pour être juste, il faut noter qu'en général cette affirmation n'est pas vraie et qu'une stratégie de rendement plus élevé existe, mais seulement pour un marché en tendance et un haut degré de prévisibilité(p>0,2), ce qui pour le Marché n'est jamais le cas. Cette stratégie consisterait à "bloquer les pertes pour laisser les profits augmenter".

La figure de gauche est l'image familière montrant le logarithme du bénéfice TS optimal pour différentes valeurs de l'effet de levier de négociation L. Il combine les résultats de la simulation numérique par la méthode Monte Carlo du fonctionnement du TS à des cotations identiques à celles du marché (EURUSD) en tenant compte de la commission - Sp. Le calcul de la moyenne est effectué pour 200 sessions de négociation indépendantes, chaque session comportant 1000 transactions. Le capital initial est pris égal à 1 (ln(1)=0), les moustaches montrent la dispersion typique des résultats de trading au niveau 1/e. Le bleu montre le résultat de la solution analytique de l'équation de base du trading :

...1.

À propos, l'ouvrage d'Edward Thorpe intitulé "Kelly's Criterion in Blackjack, Sports and Stock Market" fournit une solution analytique pour la variance du solde du compte à la fin de la transaction et permet d'estimer la fourchette dans laquelle notre compte est susceptible de se retrouver après n transactions. Mais Thorpe a fait une erreur en le calculant et le résultat ne correspond pas à la réalité. J'ai pu obtenir une relation similaire et le résultat est représenté par des lignes de cercles bleus. Vous pouvez voir l'excellent accord avec les résultats des expériences numériques. Voici une expression pour la variance des résultats des transactions avec des fonds réinvestis :

............................................... 2.

Bien sûr, pour nous, en tant que traders, l'intérêt principal est l'analyse du risque de ruine complète. La figure de droite montre les résultats de la simulation numérique de la diminution maximale du dépôt en pourcentage de sa valeur actuelle (ligne bleue). Nous pouvons voir que plus l'effet de levier est important, plus le risque de drawdown du compte est élevé. Nous pouvons trouver la valeur moyenne de ces drawdowns maximaux et la dispersion du processus (données rouges). Malheureusement, cette caractéristique du processus de négociation n'est guère informative. En effet, plus le temps passé par un trader sur le marché augmente, plus le nombre de transactions effectuées augmente et, par conséquent, plus le risque de ruine augmente. C'est-à-dire que le fait de faire faillite n'est qu'une question de temps ! Et quelle que soit la prudence des tactiques utilisées dans le commerce, tôt ou tard, nous serons ramenés à zéro ! C'est vrai. Il est important de s'arrêter à temps et d'enlever la crème. Quoi qu'il en soit, le MM optimal garantit le taux de croissance maximal du dépôt aux paramètres mesurés du TS (degré de prévisibilité - p et l'horizon commercial - H). Oui, nous perdrons le dépôt, mais nous repartirons également de zéro et le taux de croissance global de notre bien-être (en tenant compte des pertes éventuelles) sera le plus élevé possible dans la nature !

Permettez-moi de vous rappeler qu'un MM optimal ne garantit le taux de croissance maximal des dépôts que lorsque le TS est positif MO ou, de manière similaire, lorsque p>0 et je tiens à noter que le taux de croissance des dépôts (la valeur inverse du temps caractéristique de doublement des dépôts) à des valeurs optimales de levier et d'horizon de trading augmente de manière significative avec l'augmentation de la crédibilité de la prévision p:

................................................................................... 3.

- comme le quatrième degré du paramètre. Dans une telle situation, il est très important de mettre le maximum d'efforts dans le développement d'un tel TS qui permette d'obtenir la plus grande précision de prédiction possible, et si cela nécessite d'augmenter la capacité du NS (le nombre de neurones dans la couche cachée), il ne faut pas ménager son énergie et son temps, car l'objectif est payant. Eh bien, le but de l'optimisation des CT est de trouver la fonctionnalité maximale :

......................... 4.

Elle est recherchée en recherchant un seul paramètre - l'horizon de négociation H, puis on calcule la fiabilité de la prévision qui lui correspond - p. La valeur H trouvée est considérée comme optimale et est négociée tant que la tendance générale du marché ne change pas. Le marché est surveillé en permanence. Heureusement, cela ne demande pas beaucoup de ressources si une solution analytique est disponible.

On montre que lors du réinvestissement des fonds, le TS optimal est le TS de Bernoulli, c'est-à-dire le TS où SL et TP de l'ordre sont égaux et égal à Hopt trouvé par maximisation de la fonctionnelle sur les résultats de trading. De plus, il existe un effet de levier optimal Lopt fournissant un taux de croissance maximal des dépôts, de sorte que tout autre MM donnera un bénéfice plus faible sur un long intervalle de temps :

......................................................................... 5.

À ce stade, on peut considérer que la question d'un MM optimal lorsqu'on travaille avec un seul instrument a été résolue sur le plan théorique et terminée sur le plan pratique. La question de la maximisation de la fiabilité de la prédiction des incréments de prix pour la fourchette de négociation spécifiée Hopt reste non résolue. Il est évident que cette tâche pour le réseau neuronal avec un bloc de réapprentissage à chaque transaction.

 
Neutron >> :

Vous résolvez maintenant le problème de l'entrée optimale de la NS. Bien sûr, vous pouvez simplement mettre toutes sortes d'indices sur l'entrée, en espérant que la grille décidera ce qui est le mieux pour elle... Mais il est préférable de penser "quel est le TS optimal sur le marché ? Peut-être devriez-vous prédire ses moments ?

Lisez cet ouvrage. Bien sûr, il y a quelques pépins, mais ils ne sont pas principaux :

En lisant Ezhov, j'ai le sentiment que les induits, du moins sous cette forme, ne sont pas du tout nécessaires ! Tous ces RSI et stochastiques ne servent à rien : :)

 

Cela fait longtemps que je parle de cela.

Le fait est qu'une proportion significative de tous les indicateurs utilisés en TA sont d'une manière ou d'une autre construits en utilisant la moyenne des séries de prix. Par exemple, le RSI contient la moyenne des incréments de taux positifs et la moyenne des incréments négatifs. Ce serait bien, mais l'inévitable FP qui apparaît lorsqu'on essaie de faire la moyenne de la TA, réduit tous nos efforts à néant. Et ce n'est pas un hasard ; il peut être strictement démontré que la prévision de la PE à l'aide du lissage n'est possible que pour les GR, dont les lectures de la première différence sont positivement corrélées. Pour les BP de type prix, cette condition n'est jamais satisfaite ! D'où les résultats inévitablement misérables. Vous ne pouvez pas calculer la moyenne ou le lissage des séries de prix pour la prévision. Vous avez besoin d'autres approches d'analyse. En particulier, les méthodes de régression (s'il existe un modèle) ou les méthodes de réseaux neuronaux (s'il n'y a pas de modèle).

La beauté de la solution analytique que j'ai présentée dans le post précédent est que nous avons explicitement la fonction (4), dont la maximisation peut être transférée à NS. Notre tâche dans ce cas est extrêmement simple - nous devons nous assurer que l'Internet ne tombe pas :-)

 
Neutron >> :

Cela fait longtemps que je le dis.

Le fait est qu'une proportion significative de tous les indicateurs utilisés en TA sont d'une manière ou d'une autre construits en utilisant la moyenne des séries de prix. Par exemple, le RSI contient la moyenne des incréments de taux positifs et la moyenne des incréments négatifs. Ce serait bien, mais l'inévitable FP qui apparaît lorsqu'on essaie de faire la moyenne de la TA, réduit tous nos efforts à néant. Et ce n'est pas un hasard, nous pouvons strictement montrer que la prévision de la PA à l'aide du lissage n'est possible que pour les GR, dont les lectures de la première différence sont positivement corrélées. Pour les BP de type prix, cette condition n'est jamais satisfaite ! D'où les résultats inévitablement décevants. Vous ne pouvez pas calculer la moyenne ou le lissage des séries de prix pour la prévision. Vous avez besoin d'autres approches d'analyse. En particulier, les méthodes de régression (s'il existe un modèle) ou les méthodes de réseaux neuronaux (s'il n'y a pas de modèle).

La beauté de la solution analytique que j'ai présentée dans le post précédent est que nous obtenons explicitement la fonction (4), dont la maximisation peut être transférée à NS. Notre tâche dans ce cas est extrêmement simple - nous devons nous assurer que l'internet ne se plante pas :-)

Neutron, je crois que je commence à comprendre quelque chose ! J'ai beaucoup de questions et même quelques idées.

Les dindes en enfer ! Hier, j'ai fait une expérience amusante : je voulais savoir quelle est la capacité d'un perceptron à prédire les incréments.

L'image montre UN ! !! perceptron pendant 2 mois après l'optimisation. Je suis choqué !



J'ai beaucoup de questions, je ne pourrai pas les écrire toutes en même temps.

1. J'influence le signal d'entrée par une hypertangente, et afin d'égaliser sa densité de distribution, je multiplie d'abord le signal par le coefficient K > 1 (avant hypertangente).

Le plus souvent, il est possible d'obtenir une distribution assez uniforme, c'est-à-dire qu'on obtient la fonction suivante : F(t) = tn(K * Y(t)). Je sélectionne K de manière empirique, dans un indicateur spécialement aiguisé. Cependant, ce n'est pas toujours possible. Habituellement, la densité de la distribution hypertangente du signal d'entrée, avant la multiplication de ce signal par K, ressemble à ceci :



Et après avoir multiplié par K, ça donne ceci :


C'est-à-dire que le signal d'entrée (son hypertangente) est en quelque sorte étiré sur une plage de +/-1.

Mais dans le cas des incréments de BP, nous obtenons un signal qui ne peut être réduit à une distribution uniforme.

Voici le signal avant la multiplication :


Après la multiplication : (voir ceci dans mon indicateur n'est pas toujours possible car le milieu "disparaît")



Puisque j'ai déjà vu que le blanchiment des entrées affecte de manière significative la qualité de l'apprentissage et, par conséquent, la prévisibilité, j'aimerais savoir s'il n'y a pas d'autre méthode que la multiplication des signaux ?

Et si ce n'est pas le cas, que faire ?

 
Neutron >> :

La beauté de la solution analytique que j'ai donnée dans le post précédent est que nous avons obtenu explicitement la fonction (4), dont la maximisation peut être transférée à NS. Notre tâche dans ce cas est très simple - il faut s'assurer que l'Internet ne tombe pas :-)

Le thème principal de ce fil de discussion, j'ai déjà eu l'occasion de l'apprécier ! - :) Tu es un génie et je ne plaisante pas !

J'ai une idée. Très probablement un nouveau. J'ai eu un "court-circuit" la nuit dernière... à tous les niveaux de mon réseau neuronal personnel - :)

Le fait est que j'ai étudié l'homme toute ma vie, non seulement dans le contexte de sa réalisation sociale et personnelle - car tout cela est "surface" - mais comme un phénomène holistique de l'être et un "vaisseau de la conscience". Du jour au lendemain, tout ce que j'avais recueilli au fil des ans était maintenant systématisé (auto-organisé) à partir d'une collection structurée de faits et d'hypothèses pour former un tout intégral.

Je ne peux pas cacher ma joie ! Oh, eh bien... C'était une digression.

L'idée est simple :

Pour accroître la robustesse des SN, quelle que soit leur échelle ou leur objet, il faut essayer de les infecter... les infecter. Un virus est certainement fatal pour la logique déterministe d'une machine de Turing. Pour la NS et l'intelligence artificielle, avec une application appropriée et "dosée", il peut s'avérer n'être qu'une "eau vive". Maintenant, parlons-en un par un :

1. Tous les organismes vivants sont l'essence même des réseaux neuronaux. Cette affirmation peut sembler trop audacieuse, mais c'est un fait phénoménologique.

2. Tous les organismes vivants sont placés dans un environnement agressif dans le but d'apprendre - nous appelons cela l'évolution. Il suffit de se rappeler que l'évolution des formes s'accompagne d'une évolution continue des consciences individuelles incarnées dans ces formes. La conscience elle-même est un effet de la complexité du système (réseau neuronal), et son "Planck" évolutif - :), je suppose - est le rapport entre la complexité du système et l'entropie du système.

3. Les systèmes dont l'entropie est tombée en dessous d'une certaine limite s'éteignent car ils sont incapables d'évoluer davantage ; en revanche, les systèmes dont l'entropie a dépassé une certaine limite s'autodétruisent également. D'où la conclusion suivante : pour qu'un système puisse évoluer avec succès, son entropie doit périodiquement, pendant une certaine période, atteindre les valeurs maximales admissibles dans le système donné. Un tel état de fait est appelé "maladie". En disant le mot "maladie", je l'entends dans un sens assez large - un criminel d'apparence tout à fait saine est un homme malade. Seulement, ce n'est pas son corps qui est malade, mais son esprit et la douleur qu'il reçoit, la plupart du temps pas sous la forme d'une fièvre ou d'une grippe, mais sous la forme d'une soi-disant "lourde croix", d'un "destin" et ainsi de suite. Cependant, cette douleur "sociale" qu'ils reçoivent est l'un des types d'influence pédagogique du continuum évolutif - portant l'entropie de la créature à ses limites difficilement supportables. Cela soulève une question philosophique sur l'enseignant et ses objectifs... qui, cependant, dépasse largement le cadre de notre discussion sur le forum - :)

4. ceux qui survivent - ont développé une immunité - au sens large - c'est-à-dire non seulement contre les germes pathogènes et sociaux, mais surtout pour l'évolution - transactionnelle externe et transactionnelle interne.

5. Dans tout système vivant, il existe de tels "micro-organismes" qui le tueront sûrement si l'immunité est suffisamment affaiblie. Pourquoi la nature a-t-elle fait ça ? Pour augmenter la capacité du même système à résister aux facteurs de l'environnement, c'est-à-dire pour avoir plus de possibilités (temps) de poursuivre l'évolution individuelle par un "entraînement" interne constant du système pour la survie.

6. Supposons que la tâche d'un système évolutif soit de développer l'immunité (dans tous les sens du terme). Il s'avère alors une chose intéressante : le nombre d'entrées des SN vivants ainsi que le nombre de sorties (encore moins) est ridiculement petit par rapport au nombre de leurs neurones et connexions ! C'est-à-dire que nous augmentons fortement le nombre de neurones dans la couche intermédiaire (s'il y a trois couches - entrée, cachée et sortie), et nous pouvons maintenant essayer d'"infecter" le SN. Cela peut être fait en introduisant une erreur aléatoire mesurée pendant la correction des poids ! Et en allant un peu plus loin, un entraînement alternatif du SN en augmentant ou en diminuant la fréquence ou l'amplitude de cette erreur aléatoire est possible.

Par exemple, avant la correction des poids, nous pourrions essayer d'ajouter une petite erreur au correcteur à l'aide d'une fonction qui, une fois tous les 1000 appels, renverrait une valeur aléatoire dans une certaine plage (par exemple, +0,01 / -0,01 ). On ne sait pas quand ni quel neurone recevra un petit incrément erroné. Plus ces incréments sont fréquents, plus l'entropie du système est élevée. Dans ce cas, le SN devra prendre en compte... sa propre erreur !

De telles pensées...

 
Neutron >> :

Tout ça est génial, sauf pour une petite chose. Vous avez une erreur dans la formule originale. Le fait est que l'expression 1+(L*(sigma*H-Sp)/S) n'est pas équivalente à la plus-value par transaction, ce que vous essayez d'utiliser à la place de cette expression. Franchement, je ne comprends pas sur quelle base vous avez considéré que c'était "évident". C'est le premier point. Deuxièmement, la formule doit être différente pour les différentes paires de devises. Il n'existe que trois versions de la formule : pour les paires avec des "cotations directes", des "cotations inverses" et des "taux croisés". Pour les paires "straight quote", par exemple, le montant du gain, en tant que fraction du capital total, peut être calculé comme suit : (TakeProfit-Spread)*taille_d'un_lot*nombre_de_lots/dépôt. Par conséquent, pour trouver le ratio de gain, il faut ajouter 1 à la formule. L'expression "taille_un_lot*nombre_lots" correspond au volume d'argent impliqué dans la transaction, en tenant compte de l'effet de levier. Plus généralement, pour les cotations directes, il y avait une formule quelque part parmi les articles : résultat financier = (prix de vente - prix d'achat) * nombre de lots * taille d'un lot - commission * nombre de lots ± intérêts bancaires. Dans cette formule, l'écart est directement pris en compte dans les prix.

 
HideYourRichess писал(а) >>

C'est génial, sauf pour une petite chose. Vous avez une erreur dans la formule originale. Le fait est que 1+(L*(sigma*H-Sp)/S) n'est pas équivalent à la plus-value par transaction, qui est ce que vous essayez d'utiliser.

Merci, HideYourRichess, d'avoir pris la peine de vérifier les calculs. Je sais combien il est pénible de vérifier les calculs de quelqu'un d'autre. Bien entendu, je n'exclus pas les erreurs dans les formules et les hypothèses à partir desquelles elles sont dérivées, et j'essaie donc de vérifier les résultats de la solution analytique par une expérience numérique. Dans notre cas, nous avons modélisé le processus d'augmentation discrète des prix avec un pas d'augmentation égal à H points. En outre, nous avons utilisé une dépendance fixe de l'incrément attendu par rapport à l'incrément précédent : p= somme de tous les incréments consécutifs divisée par le nombre doublé de tous les mouvements. Pour un quotient de marché réel, vous pouvez afficher une ventilation similaire et trouver le coefficient p correspondant.

Les résultats de la modélisation numérique coïncident donc parfaitement avec les résultats de la solution analytique que j'ai obtenus (voir la figure de gauche ci-dessus). Par conséquent, il n'y a aucune erreur dans cette formulation du problème et dans sa solution analytique ! Il est possible d'argumenter sur la correspondance du modèle à la réalité, mais il n'y a aucun problème ici - je peux toujours mettre en œuvre ce partitionnement sur un quotient et trouver p.

paralocus a écrit >>

J'ai déjà réussi à apprécier le sujet principal de ce fil !

Merci pour ces mots aimables, mais qu'y a-t-il de spécial à savoir comment prendre les dérivées et trouver l'extremum d'une fonction ? De nombreuses personnes ne veulent tout simplement pas s'engager dans une analyse détaillée, il est plus facile de se précipiter directement vers la carrière.

Je réfléchirai plus tard à ce que vous avez écrit ci-dessus.

 
Neutron >> :

Merci pour vos aimables paroles...


Merci !

En voici un autre :

1. Une autre possibilité d'infecter le système consiste à introduire une entrée aléatoire supplémentaire dans un neurone ou un groupe de neurones - un organe.

2. L'"organe" peut être représenté comme un groupe spécialisé de neurones ayant une rétroaction universelle - c'est-à-dire que chaque neurone de l'organe "sait" ce qui se trouve à la sortie de tout autre neurone de son groupe (organe ou famille), et chaque groupe est conscient de ce qui se trouve à la sortie de l'organisme. Un tel SN sera capable d'une auto-adaptation dynamique et le besoin d'apprentissage sera l'une de ses dominantes - c'est-à-dire que le système pourra rechercher et généraliser les connaissances dont il a besoin de manière ciblée et auto-motivée. Notre tâche consistera à lui construire des obstacles et à disperser des bribes de connaissances ici et là :)

 
Neutron >> :


Ainsi, les résultats de la simulation numérique coïncident parfaitement avec les résultats de la solution analytique que j'ai obtenus (voir la figure de gauche ci-dessus). Par conséquent, il n'y a aucune erreur dans cette formulation du problème et dans la solution analytique obtenue ! Il est possible de discuter de la correspondance du modèle avec la réalité, mais ici il n'y a aucun problème - je peux toujours mettre en œuvre ce partitionnement sur un quotient et il n'y a aucun problème pour trouver p.


Il y a un peu de chosesici sur l'effet de levier et certaines des "astuces" qui y sont associées. Il s'agit d'une simulation sur un émulateur de serveur de trading.