L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1710

 
Maxim Dmitrievsky:

Max ! Rappelle-moi comment s'appellent ces modèles...

1) Le modèle 1 est formé

2) le modèle 2 est entraîné sur la base des prédictions sur les données de test du modèle 1 etc...

empilage ?

 
Aleksey Vyazmikin:

Oui, des résultats étranges. Ne prennent-ils pas la probabilité de l'échantillon test impliqué dans la formation ? Mais il semble y avoir une erreur.

Et combien d'unités totales (lignes de cible) y a-t-il dans l'échantillon ?
Pas d'échantillon de test.
Il y a 891 lignes au total dans l'ensemble de données.

Je pense qu'une des formules rms, rmse, cls ou autre est utilisée ici. L'essentiel est que le résultat converge à 0%, 50% et 100%. Et entre les deux, ils sont courbés. La répartition par classe se fait généralement à 50%, et il y a une probabilité commune de correspondance à ce stade. J'ai donc décidé de laisser la question en suspens.
 
Aleksey Vyazmikin:
elibrarius:

Je peux vous poser une question ?

Pourquoi ketbust ? Qu'est-ce qu'il a que les analogues n'ont pas ?

 
elibrarius:
Pas d'échantillon de test.
Il y a 891 lignes au total dans l'ensemble de données.

Je pense qu'une des formules rms, rmse, cls ou autre est utilisée ici. L'essentiel est que le résultat converge à 0%, 50% et 100%. Et entre les deux, ils sont courbés. La répartition par classe se fait généralement à 50%, et il y a une probabilité commune de correspondance à ce stade. J'ai donc décidé de laisser la question en suspens.

Oui, il faut casser le code pour comprendre la profondeur de l'idée. Mais il est intéressant de voir comment ils attribuent des poids aux feuilles, en tenant compte de celles qu'ils ont déjà.

 
mytarmailS:

Je peux vous poser une question ?

Pourquoi ketbust ? Qu'est-ce qu'il a que les analogues n'ont pas ?

Il m'intéresse pour les raisons suivantes :

1. Support - beaucoup d'informations et de commentaires de la part des développeurs.

2. apprentissage rapide - utilisation de tous les cœurs du processeur.

3. Paramètres flexibles pour la construction du modèle et le contrôle du réapprentissage - bien qu'il y ait beaucoup à améliorer ici.

4. Capacité d'appliquer des modèles binaires symétriques après une formation à MQL5, mais ce n'est pas mon développement.

 
Aleksey Vyazmikin:

merci

 

Peut-être que quelqu'un serait intéressé par

Un nouveau livre sur la prévision des séries temporelles en R a été publié, avec des exemples de prévision pour le bitcoin.

https://ranalytics.github.io/tsa-with-r/

 
Aleksey Vyazmikin:

Oui, pour comprendre la profondeur de l'idée, il faut casser le code. Mais il est intéressant de voir comment ils attribuent des poids aux feuilles, en tenant compte de celles qui existent déjà.

Par définition
L'idée du regroupement par gradient est de construire un ensemble de modèles élémentaires se raffinant séquentiellement les uns les autres. Le nième modèle élémentaire est entraîné sur les "erreurs" de l'ensemble des n-1 modèles, et les réponses des modèles sont pondérées ensemble. "Erreurs" est ici entre guillemets, car en fait chaque modèle successif approxime l'antigradient de la fonction de perte, qui n'est pas nécessairement égal à la différence entre les valeurs réelles et prédites (c'est-à-dire une erreur au sens propre).

Il semble que les poids soient déterminés comme d'habitude - par la probabilité.
Mais le partage n'est apparemment pas seulement le meilleur, mais celui qui améliore le résultat global. Mais ce n'est qu'une supposition. Il est impossible d'examiner le code, car il contient des kilomètres de listes. Ce n'est pas 4000 chaînes de caractères de l'alglib.

mytarmailS:

Pourquoi catbust ? Qu'est-ce qu'il a que les analogues n'ont pas ?

Je suis d'accord avec Alexey. J'ai une certaine expérience du xgboost. Il sera possible de comparer dans la pratique.
 
elibrarius:

Je demande juste pourquoi, je vois que tu te bats avec ces arbres de ketbust, il y a quelques problèmes de sortie, de béquilles....

Je me suis un peu penché sur le sujet de "l'induction de règles" et je vois que R dispose de nombreux paquets de génération de règles ou ensembles de règles...


1) les règles sont faciles à produire, sur une seule ligne

2) les règles sont faciles à lire pour un humain

3) types de tas de génération de règles, de triviales à génétiques

4) la qualité de la prédiction est égale à celle de tout autre produit.


Alors je pense que tu ne devrais peut-être pas t'embêter avec Ketbust. et aller vers quelque chose de plus agréable ou quelque chose comme ça...

 
mytarmailS:

Max ! Rappelle-moi comment s'appellent ces modèles...

1) Le modèle 1 est formé

2) le modèle 2 est entraîné sur les prédictions des données de test du modèle 1 etc...

empilage ?

étiquette meta de prado