L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2749
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Lesarticles de Vladimir présentent également une erreur de l'ordre de 10 à 20 %, mais le bilan n'est pas encourageant.
cela peut aussi dépendre de l'interprétation "a-post" de la formation....
ajouté dans le post précédent
#299
quelqu'un a supprimé mes messages où j'ai posté la vidéo... je ne sais pas comment cela peut se produire.
quelqu'un a supprimé les messages où j'avais posté la vidéo... je ne sais pas comment cela peut arriver.
Bon, bon, bon, vous vous montrez beaucoup, j'imagine.
En voici une sur le modelage du bois.
#4469
#4467
A propos de la recherche de catbusters ? 😄 qui a commencé le fil de discussion
Eh bien, eh bien, eh bien, vous devez vous montrer beaucoup.
voici le modelage du bois
#4469
#4467
A propos de la recherche de catbusters ? 😄 who started the thread
Ecoutez, le bois n'est pas du tout un argument... 95 % des tutoriels du MoD commencent par le bois, c'est la première chose qu'un débutant apprend à connaître, tu n'en as pas la charge.
Ecoutez, le bois n'est pas du tout un argument... 95% des tutoriels MoD commencent par le bois, c'est ce qu'un débutant apprend en premier, ce n'est pas de votre faute.
Il y a déjà eu des NS ici, je me suis demandé pourquoi pas des arbres. J'ai fait des tests et il s'est avéré qu'ils ne sont pas pires. Je n'ai jamais vu une telle information ici, sinon je n'aurais pas posé cette question.
Ensuite, je suis passé à bousting, j'ai trouvé la librairie katbust et j'ai commencé à la reproduire ici
Ce sont surtout les NS qui ont été discutés ici auparavant, je me suis demandé pourquoi pas les arbres. J'ai fait des tests et il s'est avéré qu'ils ne sont pas pires. Je n'ai jamais vu une telle information ici, sinon je n'aurais pas posé cette question.
et les arbres, soit dit en passant, peuvent constituer une alternative intéressante au clustering et aux fs - "2 en 1".
Je suis ensuite passé à bousting, j'ai trouvé la librairie katbust et j'ai commencé à la répliquer ici.
et les arbres, d'ailleurs, peuvent servir d'alternative valable au clustering et au fs.
En ce qui concerne l'algorithme : il donne une autre dérivée seconde mathématiquement (ou une moyenne des résidus - statistiquement) - MAIS en quoi cela aide-t-il à la formation et dans quels cas ?.. en dehors des clichés habituels dans les publicités "catboost donnera des résultats meilleurs et plus précis".... parce que la précision des points n'est pas toujours importante, parfois la capacité de génération du modèle peut être plus importante ?Il existe également des modèles en bois pour l'inférence causale, mais je n'ai pas encore eu le temps de m'y intéresser.
Le boosting réduit le biais et la variance, alors que Forest ne réduit que la variance, je pense. Il s'agit d'avantages prouvés, vous pouvez le chercher sur Google. Et la bibliothèque elle-même est développée, il est pratique de travailler avec elle.
Ce n'est pas très clair en ce qui concerne les modèles génératifs, peut-être qu'ils sont parfois plus importants. Mais les modèles génératifs NS ne fonctionnent pas bien à Forex, si nous parlons de générer des données synthétiques.
s'il s'agit de générer des données synthétiques.
non - il s'agit de généraliser... oui, c'est faux, exprimez-le.... Je suis désolé.
Je pense qu'il s'agit de distinguer les environnements à risque (risk-on/risk-off) - je réfléchis encore à la manière de généraliser cette division... tout cela est le fruit de mes propres réflexions (sur le forum par accident)...
Merci pour votre réponse !
non - il s'agit de généraliser..... oui, faux, express.... désolé
Je pense qu'il s'agit de distinguer l'environnement risk-on/risk-off -- je réfléchis encore à la manière de généraliser cette division... tout cela est le fruit de mes propres réflexions (sur le forum par accident)...
Merci pour votre réponse !
Je ne sais pas si c'est une bonne idée, mais je pense que c'est une bonne idée, car je ne sais pas si c'est une bonne idée.
Il y a un arrêt précoce basé sur l'erreur sur l'échantillon de validation, pré-entraînement. La généralisation n'est pas pire que dans les NS, qui en plus doivent écrire leurs propres fonctions pour arrêter l'apprentissage.
Et il apprend rapidement, vous n'avez pas besoin d'attendre des heures.
Je me demande juste si le MO peut simuler des fonctions primitives de la JA
il y a une matrice, chaque ligne de la matrice est un exemple d'apprentissage.
Nous devons trouver le maximum de chaque ligne, la taille de l'échantillon est de 20k lignes.
résoudre le problème par la régression
arrondi pour plus de clarté
assez bien, seulement quelques erreurs sur le test des 50 nouvelles lignes
Mais les données de la matrice X sont très simples, seulement 5 valeurs uniques de 1 à 5 et seulement 5 colonnes, mais déjà des erreurs.
Bien que je pense que si nous faisons une classification, il n'y aura pas d'erreurs, d'ailleurs vous pouvez le vérifier.
Eh bien, si, mais si nous recherchons le maximum dans les données, la classification n'est pas appropriée parce que la dispersion des valeurs peut être énorme.....
Revenons donc à la régression et compliquons les données.
Nous obtenons ce résultat.
En principe, ce n'est pas mauvais, mais la fonction habituelle mach() le fait mieux et peut remplacer tout ce modèle....
D'ailleurs, je me demande comment les autres modèles fonctionneront, s'ils seront capables de créer la fonction mach() sans erreur.