L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 686

 
elibrarius:

Cela pourrait être judicieux...

Mais on nous disait que tout était prouvé et étayé à l'université, et nous avions aussi des expériences faites en laboratoire. Et on ne nous a pas dit : "Prenez-le comme une vérité, qui n'a pas besoin de preuve.

Je suis d'accord ) mais je pense qu'il a couvert toute la théorie dans d'autres fils de discussion, vous devez juste tout relire.

Le forum est un très mauvais moyen de communication, pour moi personnellement ... il y a beaucoup d'informations, 90% d'entre elles sont oubliées, le reste est ignoré ou mal lu ... d'où un léger flot de malentendus entre les participants.

 
Maxim Dmitrievsky:

Je suis d'accord avec ceci ) mais il semble avoir décrit la théorie dans d'autres fils de discussion, vous devez juste tout relire.

Le forum est un très mauvais moyen de communication, pour moi... Trop d'informations, 90% sont oubliées, le reste est raté ou mal lu... d'où une légère trace de malentendu entre les participants

Je ne le compresse/décompresse pas, mais j'ai besoin de plus de temps). C'est sans retour.
Si vous devez mettre des choses importantes dans un blog ou un article (mais il faut qu'elles soient acceptées), il est plus facile de bloguer. Sinon, vous oubliez tout ce que vous vouliez dire et les autres, et vous oubliez vos propres pensées avec le temps. Et ensuite, jetez le lien vers le blog dans le forum et discutez-en...
 
Aleksey Terentev:

Pour l'instant, il existe un modèle stable. Il a encore besoin de travailler dessus, mais il est occupé par d'autres tâches.

Entrée = prix + 13, 26 yema ;

Prétraitement, sortie = sigmoïde (max, min, close), delta (open-close), dérivée (max, min, close), logarithme de la dérivée (max, min, close), detrend (close-eme13, close-eme26), yema(13, 26), dérivée yema(13, 26) ; Convertir l'ensemble de données en séries temporelles (1 bougie + 5 dernières). Total 16 x 6 = 96 paramètres.

Architecture :
Normalisation des lots(96) ;
GRU(96, L2, Dropout=0.5, 'elu') ;
GRU(64, L2, Dropout=0.5, 'elu') ;
BatchNormalization(64, Dropout=0.3) ;
Dense(32, Dropout=0.3, 'elu') ;
Dense(16, 'elu') ;
Dense(8, 'elu') ;
Dense(3, 'softmax') ;
Optimiseur=Nadam ;
Perte=Centropie croisée catégorielle ;

Les signaux BouncedMA sortent d'une bougie en avance (ci-dessus dans la branche) ;

Estimations : perte ~0,7-0,8 ; précision ~0,55 ;
Mais ces estimations ne parlent pas de la qualité des signaux du modèle. Ils sont plus faibles, en raison du fait que les signaux sont d'entraînement = 1,0, 0,95, 0,0, -0,95, -1,0, Et la prévision de la classe achat/vente fluctue ~abs(0,45, 0,7).
De plus, sur un ensemble de données de 5000 lignes, l'entraînement fonctionne sur 0,8 partie, ce qui signifie que le modèle ne voit même pas les dernières données de cotation (~1000 lignes). La prédiction est faite sur les 100 derniers chandeliers.

Comme vous pouvez le voir, l'entraînement peut être arrêté à ~45 époques.


Code, Indicateur.

C'est ainsi que les messages de ce fil devraient être. Données, code et résultat reproductibles. Ces éléments peuvent être discutés, complétés et comparés. Tout le reste n'est qu'absurdité sans valeur.

Bien joué. Je montrerai le même modèle en R/MT un peu plus tard, nous comparerons à la fois le volume et la qualité du code. Je suis aussi très occupé en ce moment. Mais je reviendrai certainement sur ce sujet.

Bonne chance

 
Alexander_K2:

Encore une fois.

Pour les prévisions, il est extrêmement, incroyablement important de connaître les lois de distribution des valeurs prédites.

Vous ne les connaissez pas pour les prix, ni pour les incréments, ni pour le temps entre deux devis. De plus, vous n'essayez même pas de les faire entrer dans une forme ou une autre. Alors comment pouvez-vous prédire ? Ces infâmes archives de tics ont déjà parcouru un milliard de commerçants. Résultat = 0.

J'ai fait un peu de travail avec ça et je suis dans le noir chaque semaine. J'ai pratiquement attrapé le Graal par les oreilles hier (et il s'est avéré être mon chat de Schrödinger...).

Alexander ! Ce que tu dis mérite un blog ou un article, le forum perd son fil ... réfléchis-y, peut-être que les idées principales peuvent être mises dans un blog, au moins sous forme abstraite, et faire un lien vers celui-ci afin de garder la chronologie ... cela ne devrait pas prendre beaucoup de temps

 

Je demande à l'Homme avec une majuscule de ne pas être paresseux et de présenter le modèle de son SN de manière séquentielle :

1. entrée - incréments quel que soit le temps qui les sépare

2. entrée - incréments avec un temps exponentiel entre les citations.

3. pour différents volumes d'échantillons

Formalisez-le comme un article (pas pour rien).

 
Maxim Dmitrievsky:

Alexander ! tes arguments sont dignes d'un blog ou d'articles, le fil est perdu sur le forum... réfléchis-y, peut-être que les idées principales peuvent être mises dans un blog, au moins dans le résumé, et donner un lien pour garder la chronologie... ça ne devrait pas prendre beaucoup de temps

Oui, oui, je réfléchis à l'article, mais je n'ai toujours pas le temps.

 
Alexander_K2:

1. entrée - incréments sans tenir compte du temps entre eux

2. entrée - incréments avec un temps exponentiel entre les citations.

for(int i=start;i<rates_total;i++) 
    {
     Buffer1[i]=close[i]/close[i-1];
     Buffer2[i]=close[i]/close[i-3];
     Buffer3[i]=close[i]/close[i-7];
     Buffer4[i]=close[i]/close[i-20];
     Buffer5[i]=close[i]/close[i-53];
     Buffer6[i]=close[i]/close[i-143];
     Buffer7[i]=close[i]/close[i-387];
     Buffer8[i]=close[i]/close[i-1046];
    }
est-il possible de se nourrir sous cette forme ? ou faut-il une différence ?
 
Maxim Dmitrievsky:
est-il possible de se nourrir sous cette forme ?

J'ai un générateur de nombres exponentiels qui détermine le temps de lecture de la citation.

 
Alexander_K2:

J'ai un générateur de nombres exponentiels qui détermine le temps de lecture de la citation.

Peut-être que les ticks n'ont pas de sens ? Parce qu'à n'importe quelle échelle, le résultat devrait être la même distribution.

 
Maxim Dmitrievsky:

C'est exactement la même chose ici, sauf que les données sont prises à partir d'un TF arbitraire, et non par ticks... peut-être que les ticks n'ont pas de sens ? parce qu'à n'importe quelle échelle, cela devrait donner la même distribution.

Peut-être pas. Je m'y suis déjà habitué tout simplement.

L'important, c'est que l'article ait une méthodologie qui permette de suivre le fil de l'expérimentation dans le temps. Et cette chose ne se perdra pas - ce sera quelque chose à discuter et à garder en mémoire.