L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2589

 
mytarmailS # :
https://stats.stackexchange.com/questions/31513/new-revolutionary-way-of-data-mining

Des réflexions très intéressantes sont soulevées dans cette question...

D'ailleurs, les répondants ne comprennent toujours pas l'essence de la question.

Lors du choix d'un modèle, je suggère d'optimiser non pas en fonction du bénéfice sur l'OOS, mais en fonction du rapport entre ce bénéfice et le bénéfice sur le plateau. Ou jeter les modèles ayant un faible ratio de ce type et tirer le maximum de profit de l'OOS sur le reste. Et ce, si vous prenez les citations au pied de la lettre, sans spéculation.

 
Aleksey Nikolayev #:

Lors de la sélection d'un modèle, il est suggéré d'optimiser non pas en fonction du bénéfice sur l'OOS, mais du rapport entre ce bénéfice et le bénéfice sur le plateau. Ou bien jetez les modèles dont le ratio est faible et tirez le maximum de profit de la mise au rebut des modèles restants. Et ce, si vous prenez les citations au pied de la lettre, sans spéculation.

Aleksey, puis-je avoir un morceau de la citation où il est question de profit, de profit maximum, en jetant des modèles.....

Jusqu'à présent, on dirait que vous faites comme si...
littérale, pas de spéculation.
 
Aleksey Nikolayev #:

Lors de la sélection d'un modèle, il est suggéré d'optimiser non pas en fonction du bénéfice sur l'OOS, mais du rapport entre ce bénéfice et le bénéfice sur le plateau. Ou bien jetez les modèles dont le ratio est faible et prenez le maximum de ceux qui restent en termes de profit sur les OOS. Et ce, si vous prenez les citations au pied de la lettre, sans spéculation.

Dans mon exemple ci-dessus avec des pièces et 10000 personnes. Que pile soit égale à 1 et que face soit égale à 0. Si nous agissons selon l'algorithme donné, nous n'obtiendrons rien non plus. Cela est tout à fait compréhensible dans le contexte décrit. En d'autres termes, si nous rencontrons un avantage, alors il n'est pas si important de prendre un ratio de profit sur IS et OOS ou autre chose, et s'il n'y a pas d'avantage, alors rien de ces méthodes ne fonctionnera.


Exactement ! Nous devons d'abord évaluer la présence du bord. Et ensuite, nous devrions réfléchir à la manière de sélectionner. Par exemple, de la manière suivante : nous examinons le SI dont la part des modèles selon une certaine métrique est supérieure à un certain seuil. Par exemple, le taux de gain est supérieur à 55% - 45% des modèles. Classez-les par taux de victoire et prenez un TOP. Vérifions-nous les résultats de ce sommet à l'OOS ? Sur les modèles sélectionnés, le taux de victoire supérieur à 55% est donné par les mêmes 45% (ratio des modèles donnant un tel engagement à l'OOS par rapport à tous les modèles sélectionnés) ? - Je pense que ce groupe de modèles peut être jeté sans risque. Si l'on constate qu'une telle sélection de top-modèles fonctionne, cela signifie qu'il y a un avantage et que la force de cet effet permet d'évaluer la qualité du modèle. Il est décidé qu'elle est suffisamment solide. Toute sélection ultérieure est une question de technique - même si en prenant un taux de rotation, PF, vous n'avez pas besoin de vous embêter avec des métriques et des logiques compliquées, et par taux de rotation et PF directement sur le SI.

 
mytarmailS #:
Alexei, puis-je avoir un morceau de la citation sur le profit, la maximisation du profit, le rejet des modèles.....

Parce que jusqu'ici, ça ressemble à une féroce calomnie et vous déclarez comme...
littéralement, sans spéculation

Le fait est qu'au départ, de nombreux modèles sont formés et qu'à la fin, il faut choisir un modèle fonctionnel (évaluation du modèle). Comrade affirme que tout le monde choisit généralement le modèle qui donne le meilleur résultat sur l'OOS et que c'est une mauvaise approche. Sa deuxième citation indique comment cela doit être fait.

Vous savez que vous vous en sortez bien si la moyenne des modèles hors échantillon représente un pourcentage significatif du score de l'échantillon. Cela se traduit par la maximisation du rapport entre le bénéfice sur OOS et le bénéfice sur piste.

D'une manière générale, on arrive vraiment à quelque chose si les résultats hors échantillon représentent plus de 50 % de ceux de l'échantillon. Cela peut se traduire par l'élimination des modèles pour lesquels le rapport entre le bénéfice sur les OOS et le bénéfice sur les stages est inférieur à 0,5.
 

Eh bien, c'est une sorte de question de sélection de modèle, oui, comme dans l'optimisation. Vous pouvez définir vos propres critères subjectifs.

Ce n'est pas grave s'il y a un tas de modèles avec des paramètres légèrement différents, c'est-à-dire permettant la variation, mais ils passent tous l'OOS. Mais il ne s'agit évidemment pas d'une panacée.

 
Aleksey Nikolayev #:
Alexey, existe-t-il des techniques pour restaurer la surface d'optimisation ?
Vous exécutez l'algorithme pour rechercher des paramètres, il trouve quelque chose, et vous utilisez les données de l'algorithme pour restaurer la surface d'optimisation...
Nous parlons d'algorithmes heuristiques, pas d'une recherche complète naturellement...
Je l'ai googlé, mais sans résultat.
 
mytarmailS #:
Alexey, existe-t-il des techniques pour restaurer la surface d'optimisation ?
Vous exécutez un algorithme de recherche de paramètres, il trouve quelque chose, et vous utilisez les données de l'algorithme de recherche pour reconstruire la surface d'optimisation...
Nous parlons d'algorithmes heuristiques, pas d'une recherche complète naturellement...
Je l'ai cherché sur Google, mais sans résultat.

Compléter les métriques de qualité du modèle pour l'entrée manquante, conventionnellement, des ensembles de valeurs de gyperamètres ? Le boosting est simple à enseigner. A quoi cela servirait-il ?

 
Replikant_mih #:

Compléter les métriques de qualité du modèle pour les ensembles entrants, conditionnels, manquants de valeurs d'hyper paramètres ? Eh bien un simple booster d'entraînement. A quoi cela servirait-il ?

Peut-être qu'une simple interpolation peut le faire, on verra, je voulais d'abord voir s'il en existait une toute faite...
Pourquoi ? Je suis presque sûr que je peux prédire si le modèle fonctionnera sur les nouvelles données si je vois le modèle OP.


 
mytarmailS #:
Alexey, existe-t-il des techniques pour reconstruire la surface d'optimisation ?
Vous exécutez un algorithme de recherche de paramètres, il trouve quelque chose, et vous utilisez les données de l'algorithme de recherche pour reconstruire la surface d'optimisation...
Nous parlons d'algorithmes heuristiques, pas d'une recherche complète naturellement...
Je l'ai cherché sur Google, mais sans résultat.

Dans l'espace des paramètres du modèle ? C'est une dimension énorme. Ce n'est possible que pour des modèles très simples avec un petit nombre de prédicteurs.

Il n'est pas très clair comment on peut construire une surface dans un espace d'une dimensionnalité énorme. Nous avons simplement très peu de points par rapport à cette dimension. À moins qu'il ne s'agisse d'une visualisation de réduction d'échelle dimensionnelle, comme l'ACP, etc.

 
Maxim Dmitrievsky #:

Eh bien, c'est une sorte de question de sélection de modèle, oui, comme dans l'optimisation. Vous pouvez définir vos propres critères subjectifs.

Ce n'est pas grave s'il y a un tas de modèles avec des paramètres légèrement différents, c'est-à-dire permettant la variation, mais ils passent tous l'OOS. Mais il ne s'agit évidemment pas d'une panacée.

Plus tôt, vous avez eu l'idée de combiner les métriques standard et personnalisées, ce que j'ai compris comme suit : les modèles sont formés à l'aide des métriques standard, tandis que la sélection est effectuée à l'aide des métriques personnalisées.