L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 962

 
Maxim Dmitrievsky:

Je n'ai que des prix d'entrée, je ne souffre pas de puces :) l'essentiel est la sélection des cibles

MaximDmitrievsky:

je ne sais pas quoi faire ensuite, personne n'a d'idées, je suis trop paresseux pour penser

des idées ?

vous alimentez les prix, la déviation des prix, le logarithme des prix.... et quel devrait être le résultat ? - imho, le mécanisme de cotation maximum, c'est ce que l'on trouve sur le petit TF

essayez de deviner ce que sera la première mise à jour (cassée) sur la nouvelle barre High[1] ou Low[1] - si vous apprenez à prédire, alors c'est un bénéfice, car vous connaissez déjà la direction du mouvement du prix

;)

 
Igor Makanu:

des idées ?

alimentation en prix, écarts de prix, logarithme des prix .... et quel devrait être le résultat ? - imho, mécanisme de cotation maximale, c'est ce que vous pouvez trouver sur les petites TF en utilisant le prix

essayez de deviner ce que sera la première mise à jour (cassée) sur la nouvelle barre High[1] ou Low[1] - si vous apprenez à prédire, alors c'est un bénéfice, car vous connaissez déjà la direction du mouvement du prix

;)

Les mécanismes de citation sont une chose à part :)

J'aimerais l'utiliser sur des échelles de temps de 5 à 15 minutes. J'ai déjà montré sur les captures d'écran qu'il capte certaines régularités qui ne sont pas liées à la citation. Mais il ne fonctionne pas très longtemps sur l'oscillateur, 2X la trace au maximum.

C'est intéressant de regarder la répartition, je devrais essayer.

 

Histoire/Futur = 30000/1000. Entrée - séries temporelles des différences de Close et Open : iClose(NULL, 0, i+j+1+Shift) - iOpen(NULL, 0, i+j+1+Shift), où j est compris entre 0 et 99 (total 100). La cible est la couleur de la barre (0,1).

Sur les graphiques, uniquement la période OOS (Future).

Il n'y a pas d'écart. Le niveau pour entrer l'ordre est 0.


Écart - 2 points. Niveau pour entrer un ordre - 0.

Écart - 2 points. Niveau pour entrer l'ordre - 0.1

Écart - 2 points. Niveau pour entrer l'ordre - 0.15.

Répartition des prédicats entre les classes. Précision - 0,525.


 
Ilya Antipin:


Répartition des prédicats entre les classes. La précision est de 0,525.

Certains échantillons sont minuscules - j'ai 100 à 200 000 échantillons, et si je prends une tranche de 1000, il y a de fortes chances qu'il y ait un meilleur appariement.

 

Il est très facile de faire une chose brillante. Il est difficile d'atteindre l'état dans lequel les choses géniales sont faites. Amedeo Modigliani :)

donc vous devez essayer différents types d'herbes.

 
Maxim Dmitrievsky:

Et bien il y a un modèle, les trains fonctionnent bien dans différentes modifications, certains fonctionnent à 100% et d'autres à partir de trains sur oos, comme ici.... (4 mois de formation 10 mois d'OOS) puis merde

Je ne vois pas l'intérêt de tester les démos puisque tout est déjà clair.

Oui, c'est dommage que votre démo ait disparu. Et tout cela parce que vous êtes sur la CB trop de recherche, même si elle a apporté l'article, qui dit que la CB de choisir le modèle ne peut pas, et sur le forum beaucoup de fois écrit la même chose.

 
Dr. Trader:

Oui, c'est dommage que votre démo ait disparu. Et tout cela parce que vous êtes sur le OOS trop regarder, bien que le même article où il est écrit que sur le modèle OOS ne peut pas choisir, et sur le forum ici de nombreuses fois écrit la même chose.

Voici ce qu'il en ressort...

Je vais copier mon raisonnement/suggestions sur ce sujet à partir d'un autre fil :

Cela me semble un peu trop de feedback pour l'estimation du modèle, c'est pourquoi je me suis demandé pourquoi vous ne faites de la sélection que pour cette partie.
Oui, cela fonctionne dans un cas particulier (vous avez obtenu de bons résultats dans tous les segments), mais il me semble que ce n'est pas universel.

Après tout, vous pourriez tomber sur des données qui ne sont pas si bonnes que ça. Et le modèle, par exemple, peut être entraîné à 40% d'erreur sur le graphique d'entraînement et ensuite, juste par accident, montrer 30% d'erreur sur le graphique de test. Mais disons que le deuxième modèle a appris jusqu'à 35% dans les deux sections. Le deuxième modèle est évidemment meilleur. Mais en ne sélectionnant que la parcelle de test, c'est la première qui sera sélectionnée. Pour la comparaison, il existe des options d'évaluation du modèle :
évaluation sur la parcelle d'entraînement uniquement,
ou sur la somme de toutes les parcelles,
ou comme dans Darch, (aux données de validation soumises) par Err = (ErrLeran * 0.37 + ErrValid * 0.63) - ces coefficients sont par défaut mais ils peuvent être modifiés.

La dernière option est la plus intéressante, car elle prend en compte les deux erreurs, mais avec une forte pondération du graphe de validation.
En fait, vous pouvez étendre la formule, par exemple, à Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4).

Peut-être devrions-nous même faire une sélection par les erreurs delta, par exemple, si ErrLeran et ErrTest diffèrent de plus de 5%, alors nous rejetterons ce modèle (San Sanich en a parlé). Et à partir du reste, faire un choix.
 
elibrarius:
Voici ce qu'il en ressort...

Je vais copier mon raisonnement/suggestions sur ce sujet à partir d'un autre fil :

Il me semble qu'il n'y a pas assez d'OOS pour évaluer le modèle, c'est pourquoi je me suis demandé pourquoi vous ne sélectionnez que cette section.
Oui, cela fonctionne dans un cas particulier (vous avez obtenu de bons résultats dans tous les segments), mais il me semble que ce n'est pas universel.

Après tout, vous pourriez tomber sur des données qui ne sont pas si bonnes que ça. Et le modèle, par exemple, peut être entraîné à 40% d'erreur sur le graphique d'entraînement et ensuite, juste par accident, montrer 30% d'erreur sur le graphique de test. Mais disons que le deuxième modèle a appris jusqu'à 35% dans les deux sections. Le deuxième modèle est évidemment meilleur. Mais en ne sélectionnant que la parcelle de test, c'est la première qui sera sélectionnée. Pour la comparaison, il existe des options d'évaluation du modèle :
évaluation sur la parcelle d'entraînement uniquement,
ou sur la somme de toutes les parcelles,
ou comme dans Darch, (aux données de validation soumises) par Err = (ErrLeran * 0.37 + ErrValid * 0.63) - ces coefficients sont par défaut mais ils peuvent être modifiés.

La dernière option est la plus intéressante, car elle prend en compte les deux erreurs, mais avec une forte pondération du graphe de validation.
En principe, vous pouvez étendre la formule, par exemple, à Err = (ErrLeran * 0,25 + ErrValid * 0,35 + ErrTest * 0,4).

Peut-être devrions-nous même faire une sélection par les erreurs delta, par exemple, si ErrLeran et ErrTest diffèrent de plus de 5% - nous devrions rejeter un tel modèle (San Sanich en a parlé). Et de faire une sélection parmi les autres.
Il semble que quelqu'un ait écrit ici que les erreurs par sections devraient être corrélées comme suit : Train <= Valid <= Test.
 
Ivan Negreshniy:
IMHO, en plus des formules de sommation des erreurs, nous avons besoin de plus de proportions de leur rapport, il semble que quelqu'un ait écrit ici que les erreurs par sections devraient être corrélées comme Train <= Valid <= Test.
Le train est minimisé par l'erreur de formation, d'autres zones peuvent osciller aléatoirement de haut en bas. L'essentiel est qu'il ne doit pas trop osciller.
 
elibrarius:
Le train est minimisé par l'erreur de formation, les autres sections peuvent se balancer aléatoirement, vers le haut ou vers le bas. L'essentiel est de ne pas trop se laisser aller.

Et qu'est-ce qui, pour vous, justifie l'admissibilité des écarts à la baisse autres que le pur hasard ?

Et puis, quelle est votre tâche principale, si ce n'est de combattre ce caractère aléatoire, car il annule le sens de la validation comme de l'OOS et du MO en général)).