L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3385

 
Maxim Dmitrievsky #:
Vous ne vouliez pas écrire un article sur les règles, ou vous avez changé d'avis ? C'est probablement un sujet intéressant, plus intéressant que la minimisation des fonctions de test. Ou bien avez-vous des problèmes avec leur validation sur OOS ? Ou bien il n'y a pas de problème, mais juste la flemme d'écrire.
Je ne sais pas, il n'y a rien à écrire.
Je vais écrire comment décomposer un modèle en bois en règles, et alors ?
En fait, mon post a déjà tout montré.

Ou bien faites-vous référence à mon ancien article ? Si c'est le cas, dans le fractionnement je n'ai pas trouvé de super propriétés curatives, il y a des plus qui ne peuvent pas donner le modèle.

1. on peut réduire drastiquement la dimensionnalité du modèle.



2. on peut connaître les statistiques de chaque règle (c'est très important).

Par exemple, nous avons un modèle en bois avec 100 règles et nous ne savons jamais si chaque règle a fonctionné une fois parmi 100 règles (il n'y a pas de modèle) ou si 10 règles ont fonctionné 50 fois (il y a un modèle).
Si nous ne cassons pas le modèle, nous ne le saurons pas et les deux modèles seront identiques pour nous.

 
mytarmailS #:
Je ne sais pas, je n'ai rien à écrire.
Je vais écrire comment décomposer un modèle en bois en règles, et alors ?
En gros, mon post vous a déjà tout montré.

Ou bien faites-vous référence à mon ancien article ? Si c'est le cas, dans le fractionnement je n'ai pas trouvé de super propriétés curatives, il y a des plus qui ne peuvent pas donner le modèle.

1. on peut réduire drastiquement la dimensionnalité du modèle.



2. on peut connaître les statistiques de chaque règle (c'est très important).

Par exemple, nous avons un modèle en bois avec 100 règles et nous ne savons jamais si chaque règle a fonctionné une fois parmi 100 règles (il n'y a pas de modèle) ou si 10 règles ont fonctionné 50 fois (il y a un modèle).
Si nous ne cassons pas le modèle, nous ne le saurons pas et les deux modèles seront identiques pour nous.

Dans les arbres, il est généralement possible de calculer l'influence de chaque observation de chaque caractéristique, sa contribution au modèle, par exemple par le biais des valeurs de shap. Si nous ne laissons que celles qui sont utiles et que nous entraînons quelque chose uniquement sur elles, nous obtiendrons un analogue approximatif de la recherche de règles. Avec des neurones, d'ailleurs, c'est également possible.

Il est difficile de comprendre pourquoi seules les règles peuvent être les seules utiles. Peut-être pour l'interprétabilité du résultat. Bien que les valeurs shap donnent également une bonne interprétabilité, en quelque sorte.
 
Maxim Dmitrievsky #:
Dans les arbres, on peut généralement calculer l'influence de chaque observation de chaque caractère, sa contribution au modèle, par exemple, par le biais des valeurs de shap. Si vous ne laissez que les valeurs utiles et que vous entraînez quelque chose uniquement sur celles-ci, vous obtiendrez un analogue approximatif de la recherche de règles. Avec des neurones, d'ailleurs, c'est également possible.

Il est difficile de comprendre pourquoi seules les règles peuvent être les seules utiles. Peut-être pour l'interprétabilité du résultat. Bien que les valeurs de shap donnent également une bonne interprétabilité, en quelque sorte.
L'influence de chaque trait, l'influence de chaque observation et l'influence de chaque règle sont toutes différentes.
 
mytarmailS #:
L'impact de chaque caractéristique, l'impact de chaque observation et l'impact de chaque règle sont tous différents
Les règles sont les éléments du modèle qui relient les caractéristiques et les étiquettes. La seule chose est que les réseaux neuronaux n'ont pas de discontinuité, mais celle-ci peut être créée artificiellement.

Ce que je veux dire, c'est que je ne vois pas l'intérêt des règles (fumer une pipe de manière significative).
 
Maxim Dmitrievsky #:
Les règles sont les éléments du modèle qui relient les attributs et les étiquettes. La seule chose est que les réseaux neuronaux n'ont pas de discontinuité, mais il est possible de la créer artificiellement.

Ce que je veux dire, c'est que je ne vois pas l'intérêt des règles.

Je vais essayer à partir de Khabarovsk...


tout modèle est une certaine somme de modèles, et de manière exagérée, un modèle peut être étiqueté comme un TS.


Imaginons qu'un modèle se compose de 100 CT.


Il se peut que dans le modèle n° 1, 100 CT aient conclu un marché.

Il se peut que dans le modèle n° 2, un CT ait effectué 100 transactions, et que les 99 autres n'aient pas effectué une seule transaction.


Comment calculer les statistiques pour chaque CT?

Si le modèle est un modèle de règles, c'est facile et clair.

Si le modèle estneuronal ?

 
mytarmailS #:

Je vais essayer depuis les environs de Khabarovsk.

Si le modèle est un neurone ?

/\
!
!

Vous et Sanych ne travaillez pas dans le même studio ?
Vous choisissez des exemples qui sont bien prédits par le NS. Vous formez un autre NS uniquement sur ces exemples. Répétez l'opération plusieurs fois, selon votre goût. Après quelques tours, vous aurez le NS avec les meilleures "règles".

C'est également facile et je ne dirais pas incompréhensible.
 
Maxim Dmitrievsky #:

Vous choisissez des exemples qui sont bien prédits par le NS. Entraînez un autre NS uniquement sur ces exemples. Répétez l'opération plusieurs fois, selon votre goût. Après plusieurs tours, vous obtiendrez le NS avec les meilleures "règles".
Nous avons obtenu un sous-échantillon sur lequel neuronka prédit bien. Comment savoir s'il s'agit d'un seul motif dans ce sous-échantillon, de deux ou de vingt ? Vous ne savez vraiment pas faire la différence ?

 
mytarmailS #:
Comment savoir s'il s'agit d'un seul modèle dans ce sous-échantillon, de deux ou de vingt ? Vous ne faites vraiment pas la différence ?

Par le nombre d'exemples restants. Il y a autant d'exemples que de modèles. C'est une règle approximative, je ne dis pas que c'est la même chose qu'une règle stricte. Mais vous pouvez diviser l'échantillon davantage, jusqu'à une division complète pour chaque motif.
 
Maxim Dmitrievsky #:
Par le nombre d'exemples restants. Il y a autant d'exemples que de motifs.
Il peut y avoir 200 exemples et seulement 5 modèles.
Un exemple n'est pas un modèle, un exemple est une observation.
 
mytarmailS #:
Il peut y avoir 200 exemples et seulement 5 modèles.
Un exemple n'est pas un modèle, un exemple est une observation
Si l'erreur a déjà cessé de diminuer ou est égale à zéro, vous pouvez diviser les exemples restants en motifs par une certaine mesure de proximité :). Le regroupement, par exemple. Et compter combien il en reste. Et même en écrivant une condition moyenne pour chaque motif/cluster (prendre les centroïdes des clusters), vous obtiendrez une règle de sortie.