L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 1702
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Si nous parlions de régression, ce serait plus clair - c'est probablement une bonne façon de voir les choses.
Je suis d'accord. La NS est plutôt un composant de l'IA, comme une vis ou un écrou dans une voiture.
Une autre de vos erreurs de débutant. NS est très exigeant pour l'échantillon de formation et est un outil plutôt subtil, où une erreur mineure dans la préparation des données (mauvaise virgule) conduit à un résultat diamétral. Essayez de moins tirer vos propres conclusions, et écoutez mieux ce qu'on vous dit.
D'accord, le NS est un composant de l'IA. En plus du réseau neuronal, il existe un certain nombre d'algorithmes qui servent ce réseau neuronal, et l'ensemble constitue un système d'IA. Exactement un système. Mais un système d'IA ne peut exister sans un réseau neuronal.
Pour l'instant, je n'identifie pas l'IA et la NS. Vous avez dit vous-même qu'il n'y a pas lieu de confondre les deux. La NS est un outil qui peut être utilisé dans l'IA, mais à elle seule, elle ne s'en approche pas. Vous sembliez d'accord avec cela.
L'IA doit-elle même interagir avec les humains ?
C'est donc la conclusion à laquelle nous sommes arrivés.
Qu'est-ce qu'il y a de mal à ça ? Catbust contourne la plupart de ses concurrents.
Par exemple, je n'aimais pas l'idée d'un arbre symétrique. Il est évident que ce n'est pas la meilleure solution de diviser 2 nœuds différents par un seul prédicteur et par le même niveau. A moins qu'elle ne soit multipliée par 10.
Heureusement qu'ils ont ajouté 2 nouvelles méthodes plus classiques.
Elle le contourne probablement, mais là, dans les concours, l'échantillonnage est stationnaire, il n'y a pas de caractéristiques particulièrement mauvaises, c'est-à-dire que les conditions ne sont pas celles avec lesquelles nous travaillons, et je réfléchis à la meilleure façon de préparer les données en tenant compte de ces caractéristiques. (La solution n'est pas encore sous sa forme définitive, mais c'est une tâche importante).
Les différents modèles d'arbres sont bons, mais pour l'instant, ils ne peuvent pas être téléchargés dans un fichier séparé, et ne peuvent donc pas être intégrés dans l'EE, ce qui est mauvais.
Je n'aime pas l'absence de post-traitement dans le boosting - quand, à la fin de la formation, le modèle est simplifié en éliminant les arbres faibles. Je ne vois pas pourquoi cela n'est pas fait.
Les feuilles des arbres individuels dans le boosting sont faibles - faible complétude - moins de 1% et il est mauvais que ce paramètre ne puisse pas être ajusté, tandis que la distribution du signal comptable par échantillon n'est pas du tout effectuée - en conséquence, nous apprenons en rejetant. Beaucoup de nuances et ici la solution peut être un bon prétraitement des prédicteurs. Et bien sûr, il est préférable de se brancher et de modifier le code - personne ne comprend le C++ au bon niveau ?
Je pense qu'il doit le faire. Sinon, à quoi bon ?
Lorsque vous pensez (votre intellect résout un problème), devez-vous communiquer avec quelqu'un à ce moment-là ?
Vous n'arrivez toujours pas à vous débarrasser de votre définition "vermoulue" de l'intelligence, alors nous communiquons dans des langues différentes à présent.
Je vous dirai même plus, j'ai eu de tels cas où je n'ai eu qu'à appuyer sur le bouton d'optimisation et ensuite je me suis rendu compte que cette étape, il y a 20 opérations, j'avais fait une erreur et en fait j'avais une erreur dans mes données et j'ai dû tout préparer à nouveau parce que j'avais clairement compris qu'il ne devait pas y avoir d'erreur. Une virgule au mauvais endroit et tout ça pour rien. Cela signifie des heures de machine, du temps et, surtout, des résultats.