L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1615

 
Aleksey Vyazmikin:

Il ne s'agit pas de rétrécissement, mais de statistiques sur le comportement du prédicteur sur un échantillon en dehors d'une division - cela devrait réduire le caractère aléatoire de la sélection d'une valeur prédicteur.

Au fait, est-ce qu'AlgLib fait la grille à chaque fractionnement ou une fois et utilise ensuite cette grille ? Si je comprends bien, les développeurs de CatBoost déclarent que la grille n'est faite qu'une seule fois par eux.

Il n'y a pas de hasard. La meilleure partition disponible de chaque prédicteur est sélectionnée. Il existe un caractère aléatoire dans la forêt, lorsque chaque arbre n'est pas alimenté par tous les prédicteurs, mais par exemple par la moitié des prédicteurs sélectionnés au hasard.

Il apprend une fois. Il n'y a pas de recyclage. Pour les arbres/forêts, il ne semble pas y avoir de réapprentissage du tout, probablement parce que le réapprentissage est plutôt rapide.
Et pourquoi la grille ? Les arbres ont des nœuds et des feuilles.

 
elibrarius:
Au fait, ce que je n'aime pas dans les boosts, c'est que la profondeur d'arbre recommandée est de 7 à 10.
Autrement dit, si nous avons 100 prédicteurs et que la division commence également au milieu de chaque prédicteur. Il est très probable que nous ayons 7 prédicteurs différents répartis au milieu. Peut-être qu'un ou deux se diviseront en un quart, probablement moins.
Ou bien, dans les algorithmes de boosting, l'algorithme ne fonctionne pas par demi-division, mais par petits morceaux ? Quelqu'un le sait-il ?
Et qui utilise quelle profondeur d'arbre ?


 
Maxim Dmitrievsky:


47 minutes, c'est dommage... pour écouter les bases, qui sont pour la plupart connues. Une seule question spécifique présente un intérêt. Si vous le savez - dites-le moi)

 
elibrarius:

47 minutes, c'est dommage... pour écouter les bases, qui sont pour la plupart connues. Une seule question spécifique présente un intérêt. Si vous le savez, dites-le moi.

ils sont tous construits différemment, vous devez lire le manuel de chacun d'eux.

tout cela n'a pas d'importance si vous avez des puces informatives qui sont pertinentes pour la cible, alors n'importe quelle méthode fonctionne.

Je comparais la forêt avec le boosting sur des caractéristiques similaires. Le boosting a moins d'overfit, globalement +-

 
Maxim Dmitrievsky:

ils sont tous construits différemment, vous devez lire l'aide pour chaque

tout cela n'a pas d'importance si les caractéristiques informatives sont pertinentes pour la cible, alors n'importe quelle méthode fonctionne.

Je comparais la forêt avec le boosting sur des caractéristiques similaires. Le boosting a moins d'overfit, en général +-

A quelle profondeur avez-vous réglé le boosting ?
 
Maxim Dmitrievsky:

ils sont tous construits différemment, vous devez lire l'aide pour chaque

tout cela n'a pas d'importance si les caractéristiques informatives sont pertinentes pour la cible, alors n'importe quelle méthode fonctionne.

Je comparais la forêt avec le boosting sur des caractéristiques similaires. Le boosting a moins d'overfit, en général +-

C'est ce que je veux dire. Si les données sont adaptées à l'objectif, n'importe quelle méthode fonctionnera. C'est ce que je voulais vérifier parce que mes entrées sont vraiment bonnes. Mais seul l'optimiseur de Reshetov le prouve, et comme vous le comprenez, un seul expert n'est pas suffisant pour faire une évaluation subjective. Ce n'est pas une question de méthode, chacune des méthodes ne nécessite qu'un certain nombre de caractéristiques (Max, c'est la première fois que j'utilise ce mot à cause de toi) ; certains en ont besoin de beaucoup, d'autres de peu, mais en général, si les données d'entrée expliquent la variable de sortie, alors n'importe quelle méthode fonctionnera. Et je pense que les résultats seront similaires. J'aimerais pouvoir utiliser mes entrées dans d'autres systèmes que Reshetov. Il faut aller sur le forum des programmeurs, je ne sais pas où aller :-(.
 
elibrarius:
Quelle profondeur avez-vous définie pour le boosting ?

2 à 10, plus la profondeur est grande, plus l'ajustement est grand.

idéalement 3-7

L'étape du gradient peut également être modifiée. En général, cela n'a pas d'importance, les résultats sont moins de dispersion, moins de décalage, moins de signaux, etc... et l'image moyenne est préservée. C'est une question d'optimisation, cela n'a rien à voir avec la qualité.


 
Max, honnêtement, je te remercie pour la vidéo sur le neurone naturel, mais cette vidéo n'est pas très bonne. Le fait est que j'ai une théorie de la reconversion à laquelle je réfléchis depuis longtemps et que je l'ai construite de manière tout à fait adéquate pour moi. Je suis sûr que le personnel de Yandex serait intéressé de l'entendre. Eh... J'aimerais trouver la force d'enregistrer une vidéo. Je suis toujours bourré ou drôle. Je n'en sais rien :-(
 
Mihail Marchukajtes:
Max, je veux te remercier pour la vidéo sur le neurone naturel, mais cette vidéo n'est pas très bonne. Le fait est que j'ai une théorie de la reconversion à laquelle je réfléchis depuis longtemps et que je l'ai construite de manière tout à fait adéquate pour moi. Je suis sûr que le personnel de Yandex serait intéressé de l'entendre. Eh... J'aimerais trouver la force d'enregistrer une vidéo. Je suis toujours bourré ou drôle. Je n'en sais rien :-(

)))) les régularités devraient être recherchées par le biais d'une analyse statistique plutôt que de torturer les neurones.

Par exemple, dans mon avant-dernier article, j'ai donné les fluctuations saisonnières de l'EURUSD sur 10 ans, par mois. Cette année, tout se répète. Les mois d'avril et mai seront les plus intéressants (à court terme).
 
Maxim Dmitrievsky:

))) les régularités doivent être recherchées par le biais de l'analyse statistique, et non en torturant les neurones.

C'est ce que je veux dire. Avant de me préoccuper de JPrediction, je ne laisse que 150 pièces sur 6000 mille colonnes, qui sont statistiquement significatives, et seulement alors je cherche cette fameuse loi décrivant la sortie. Le nombre de colonnes doit être deux fois plus important que le nombre de lignes du tableau, en théorie, afin que l'algorithme ait suffisamment de données parmi lesquelles choisir. En conséquence, l'optimiseur laisse 5 à 10 pièces sur les 150 suggérées par moi pour former le modèle final.