L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2621

 
mytarmailS #:
Pour PythonPonyGE2 il y a un paquet, mais je le fais sur Pke, donc je ne peux pas dire ce que c'est et comment.
Je me suis trompé dans les noms.
L'évolution grammaticale ou la régression symbolique fonctionnent toutes deux
 
Valeriy Yastremskiy #:
Une séquence d'événements/règles est efficace, mais chaque règle a une dimension et une longue séquence comporte des malédictions.
Ce qui est bien avec cette approche, c'est que vous avez le contrôle...
Fixez une condition selon laquelle une règle doit être répétée au moins 200 fois, par exemple, et vous n'aurez pas la malédiction de la dimensionnalité.
 
mytarmailS #:
Qu'est-ce que j'ai fait avec les noms insensés ?
L'évolution grammaticale ou la régression symbolique fonctionnent toutes deux.
Régression symbolique, oui.
 
La régression symbolique dans le compromis entre le biais et la variance semble fortement biaisée vers une augmentation de la variance. Ce n'est certainement pas une raison pour l'abandonner, mais il pourrait y avoir des problèmes en raison de la proximité du prix avec le SB.
 
Aleksey Nikolayev #:
La régression symbolique dans un compromis entre le biais et la variance semble fortement biaisée vers l'augmentation de la variance. Ce n'est certainement pas une raison pour l'abandonner, mais il pourrait y avoir des problèmes en raison de la proximité du prix avec le SB.

C'est juste un cadre sur lequel vous pouvez créer des règles, il n'y a rien dans ma proposition sur le prix, l'approximation, la régression....

 
mytarmailS #:

Je me fiche qu'il y ait un millier de modèles, s'ils regardent les 10 dernières bougies, c'est inutile, même si c'est un GPT-3 avec tous les boyaux.

Vous avez un générateur, vous n'avez pas d'électricité...

Mes 5 centimes. - Pendant la formation, le poids des neurones non répétitifs (barres) est estompé. Le poids influent reste celui des neurones les plus fréquemment confirmés. Ainsi, avec un nombre fixe de barres, seules les barres significatives ont un poids. Une sorte de figure.

 
Dmytryi Voitukhov #:

Mes 5 centimes. - Pendant l'apprentissage, le poids des neurones non répétitifs (barres) est estompé. Le poids influent reste celui des neurones les plus fréquemment confirmés. Ainsi, avec un nombre fixe de barres, seules les barres significatives ont un poids. Une sorte de figure.

3h du matin, qu'est-ce que tu fais Dimitri ?)
 
Dmytryi Voitukhov #:

Mes 5 centimes. - Pendant l'apprentissage, le poids des neurones non répétitifs (barres) est estompé. Le poids influent reste celui des neurones les plus fréquemment confirmés. Ainsi, avec un nombre fixe de barres, seules les barres significatives ont un poids. Une sorte de figure.

De même dans un arbre. Sur 100 feintes/barres par exemple, 5 à 10 meilleurs splits en choisiront quelques uns significatifs, et n'utiliseront pas le reste. Si vous divisez l'arbre jusqu'en bas, les dernières divisions (et les caractéristiques/barres utilisées) modifieront très légèrement le résultat global. C'est-à-dire que le résultat est à peu près le même que celui de NS, mais il compte plus vite.
 
Et si une personne échangeait et donnait à ML ce qui est bon et ce qui est mauvais ?
 
BillionerClub #:
Et si on échange et donne à ML ce qui est bon et ce qui est mauvais ?

C'est une bonne idée, seulement je pense que c'est important ici :

- Pour accumuler beaucoup de statistiques.

- Pour qu'une personne échange une seule chose (un seul système).

- Que la personne reste objective et procède à des échanges systématiques.


Dans ce cas, je pense que l'on obtiendra une bonne majoration, et qu'il est donc possible d'en tirer un bénéfice normal.