L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1002

 
Alexander_K2:

On peut donc penser que la séquence de rendements (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) est une série stationnaire.

Une retournee d'une bougie est (close-open)/open, il est clair que ce n'est pas un prix propre à mettre en NS, la retournee suivante est prédite à partir de la précédente (avec une fenêtre différente) très pauvrement, pas assez pour un spread, mais apparemment c'est tout ce que nous pouvons obtenir.

 
Alexander_K2:

En substance, la valeur CLOSE[i]-OPEN[i] n'est rien d'autre que la somme des incréments.

Une séquence de telles valeurs devrait, à la limite, tendre vers une distribution normale.

Il existe une opinion selon laquelle la séquence des retours (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]) est une série stationnaire.

Quelqu'un a-t-il essayé une telle chose sur l'entrée NS et quels ont été les résultats ????

Close[i] peut être remplacé par Open[i+1], dans Forex c'est vrai dans plus de 90% des cas. Ou il peut s'agir d'une différence d'un ou deux points. Il n'y aura alors qu'une seule série temporelle dans la formule, c'est plus pratique.

Cette transformation est utilisée dans le modèle ARIMA. Et elle sert vraiment à atteindre la stationnarité, mais il y a beaucoup plus de transformations, ce n'est pas la seule formule qui existe.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
ARIMA est dépassé maintenant, sur les marchés financiers s'il donne quelque chose, ce n'est pas plus que les intérêts bancaires sur un dépôt. GARCH est bien meilleur selon les articles, de plus c'est ARIMA plus divers ajouts.
 
Alexander_K2:

Une séquence de telles valeurs devrait, à la limite, tendre vers une distribution normale.

Je n'ai pas vu de prix qui tendent vers une distribution normale. J'ai toujours eu des gains qui ressemblaient à Laplace, avec des queues de koshi.

 

C'était mon raisonnement théorique.

En pratique, bien sûr, les premiers rentrants n'ont pas Gauss, et personne n'a encore réussi à l'obtenir, et n'y arrivera jamais, hélas...

Je parlais quand même de la séquence (CLOSE[i]-OPEN[i])-(CLOSE[i-1]-OPEN[i-1]), c'est-à-dire en fait dudeuxième retour.

Je n'ai pas prêté beaucoup d'attention à ces seconds retours jusqu'à présent, et j'aurais dû.

 

Et Kolmogorov, en général, je vois, accordait une attention particulière à B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])] et refusait de prédire quoi que ce soit si cette fonction n'était pas tout à fait définie.

Peut-être est-il judicieux de poser certaines conditions au travail du SN ?

Disons, sauter les pièces instables de la BP, en explorant, par exemple, les seconds retours ou la B(k) ?

 

Salut !

Chers gourous, avez-vous déjà créé un superbot ?

J'aimerais l'essayer pour de vrai.

 
Alexander_K2:

Et Kolmogorov, en général, je vois, accordait une attention particulière à B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])] et refusait de prédire quoi que ce soit si cette fonction n'était pas tout à fait définie.

Peut-être est-il judicieux de poser certaines conditions au travail du SN ?

Par exemple, sauter les pièces instables de la BP en explorant les seconds retours ou B(k), par exemple ?

Il y a donc une limite : (Sigmas au carré).

La détermination de cette limite est le premier des problèmes résolus dans cette étude.

problème à résoudre dans ce document.

Comme pour le problème de l'interpolation, nous ne considérons que le

le cas de l'évaluation de x(/) par les quantités

-x{t + i)Jx{t + 2)1 ...,x(t + n),

x(t - l), x(t~2), ... , x(t - ha).

Dans ce cas, nous désignons par oj (ha) la valeur minimale de l'espérance mathématique

attente

a2 = MI0-< ?)%

où Q est une forme linéaire :

Q = axx {t + i) + atx {t + 2)+ ... +apx {t + n) +

+ a-ix(t - l)-\-a-2%(t - 2)+ ... -\-a-nx(t - ha)

avec des coefficients réels constants comme.

Lorsque ha augmente, la valeur de a2 (i) n'augmente pas. Par conséquent, il existe

limite

l im a} (ha) = o ? (5)

P~>o

Notre deuxième problème est de déterminer un]. Les propositions suivantes

solution des deux problèmes formulés ci-dessus a été rapporté sans

preuve dans ma note (*) *. Elle s'appuie sur des notions relatives à

à la théorie spectrale des processus aléatoires stationnaires.

La théorie spectrale des processus aléatoires stationnaires était

construit par A. Я. Hinchin pour le cas d'un changement continu de l'argument de temps t (2 ) .

argument t (2 ) .

Je ne comprends pas, prévoyez-vous d'estimer analytiquement la fiabilité de la prédiction déjà faite, ou de faire une prédiction pour commencer. Les deux premières pages indiquent que l'article porte sur l'estimation de la fiabilité d'une prévision. Les prévisions elles-mêmes se trouvent dansA.J. Hinchin.

Et vous n'avez pas soigneusement copié la déclaration de base de l'article.

Non : B(k)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i-to])

A: B(j)=M[x(t)*x(t-to)]=M[(CLOSE[i]-OPEN[i])*(CLOSE[i-to]-OPEN[i])

Aussi, je pense que c'est plus correct :

Forum sur le trading, les systèmes de trading automatisé et les stratégies de test

L'apprentissage automatique dans le trading : théorie et pratique (Trading and Beyond)

Dr. Trader, 2018.07.06 02:37

Close[i] peut être remplacé par Open[i+1], en forex c'est vrai dans plus de 90% des cas. Ou une différence de quelques pips seulement. Il n'y aura alors qu'une seule série temporelle dans la formule, c'est plus pratique.

Cette transformation est utilisée dans le modèle ARIMA. Et elle sert effectivement à atteindre la stationnarité, mais il y a beaucoup d'autres transformations, ce n'est pas la seule formule.

https://people.duke.edu/~rnau/411arim.htm

If d=2:  yt  =  (Yt - Yt-1) - (Yt-1 - Yt-2)  =  Yt - 2 Yt-1 + Yt-2
ARIMA est déjà obsolète, sur les marchés financiers, il ne donnera pas plus que les intérêts bancaires sur un dépôt. GARCH est bien meilleur selon les articles, de plus c'est ARIMA plus divers ajouts.

PS.

Oui, et merci pour la réponse à la question de mon post : https://dxdy.ru/post1244134.html#p1244134.

Рекуррентная формула для синуса : Дискуссионные темы (М) - Страница 7
  • dxdy.ru
В принципе, используется и рекуррентное вычисление через возвратное уравнение второго порядка, и через комплексную экспоненту. Первое менее расходно по ресурсам (умножение и два сложения и две ячейки памяти) по сравнению со вторым (два умножения, четыре сложения, две ячейки памяти при постоянной частоте), но накапливается погрешность быстрее...
 
Bonjour, c'est Misha qui vous parle, et comme vous l'avez deviné je fais ceci depuis mon téléphone :-)
Je sais, je pense que le prétraitement des données est au premier plan de nos jours. Bien sûr, l'algorithme d'optimisation est important en soi, mais un bon échantillon d'entraînement n'est pas la dernière chose. Vous avez fait l'éloge et la critique de l'optimiseur de Reshetov, mais d'ailleurs il fait de bons modèles lorsque les données sont bien prétraitées. Dans tous les cas, avec 10 optimisations, au moins la moitié des modèles fonctionneront. Après tout, ce n'est pas si facile à mettre en œuvre dans son cas. Et je pense que JPrediction sera toujours pertinent. L'essentiel ici est de prétraiter correctement les données et c'est dans ce domaine que la compétition est désormais engagée.
 
Comme je l'ai dit, dans un autre fil .... Je suis en train de travailler dessus et j'ai déjà mis en place au moins deux étapes de prétraitement. La première élimine les prédicteurs inutiles. Le second rend l'échantillon plus présentable pour la formation et je voudrais me concentrer sur le second point.
Après l'exercice de représentativité, la qualité de l'apprentissage a augmenté de 15 % pour le même ensemble de données. L'objectif principal est d'augmenter la période d'apprentissage tout en maintenant le même niveau de qualité d'apprentissage. Exemple : avec 25 exemples, j'ai pu passer de 80 % de généralisabilité à la vôtre. En traitant la représentativité sur 40 exemples, j'ai pu obtenir 90% de la qualité du modèle. Je pense que le meilleur modèle est celui qui peut être entraîné sur un échantillon plus long tout en conservant sa qualité d'entraînement.
 
Gramazeka1:
Bonjour, c'est Misha qui vous parle, et comme vous l'avez deviné je fais cela depuis mon téléphone :-)
Je sais, je pense que le prétraitement des données est au premier plan de nos jours. Bien sûr, l'algorithme d'optimisation est important en soi, mais un bon échantillon d'entraînement n'est pas la dernière chose. Vous avez fait l'éloge et la critique de l'optimiseur de Reshetov, mais d'ailleurs il fait de bons modèles lorsque les données sont bien prétraitées. Dans tous les cas, avec 10 optimisations, au moins la moitié des modèles fonctionneront. Après tout, ce n'est pas si facile à mettre en œuvre dans son cas. Et je pense que JPrediction sera toujours pertinent. L'essentiel ici est de prétraiter correctement les données et c'est dans ce domaine que la compétition est désormais engagée.

Salut Misha !

Oui, il est temps de reconsidérer tous les efforts de mise en réseau des neurones et leurs maigres espoirs pour l'outil lui-même. Rien ne servira - ni les forêts, ni les steppes - si les données d'entrée ne sont pas préparées.

Et oui - il n'y a pas de concurrence, il y a un problème et il y a un abrutissement général.

Si vous savez comment préparer les données, allez-y. L'humanité vous remerciera.