L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2828
![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Oui, je jetterai un coup d'œil à adam à l'occasion, pour faire quelques tests.
Les articles sont excellents, mais je n'ai pas les compétences pour m'opposer à quoi que ce soit :)
merci))))
alors je vois la nécessité d'inclure les algorithmes traditionnellement utilisés avec les neurones dans l'examen également.
Dans la pratique, cela signifie que le neurone sera sous-entraîné.
C'est un peu une réflexion après coup.
il y a différents types d'AO, l'optimisation locale et l'optimisation globale...
L'optimisation locale consiste en des gradients, le même Adam, etc... L'optimisation globale consiste en une génétique, etc...
Les réseaux sont formés avec l'OA locale parce que c'est rapide, "il y a beaucoup de poids".
et il n'est tout simplement pas efficace d'entraîner l'OA globale...
Et le plus important est que si vous entraînez un neurone normal, qui représente environ un milliard de poids, avec l'OA globale, premièrement, vous devrez attendre longtemps, et deuxièmement, vous ne pouvez en aucun cas garantir que vous avez trouvé un minimum global.....
Donc tout ce discours est une profanation de l'eau pure, SUPER croyance naïve que ceux qui ont créé le deep learning ne connaissent pas les algorithmes d'optimisation globale et leurs propriétés, c'est tellement évident que ce n'est même pas drôle.....
Vous apprendrez à distinguer les algorithmes d'optimisation globale des algorithmes d'optimisation locale, et puis il y a l'optimisation discrète, l'optimisation continue, l'optimisation multicritère, etc....
Et chacun d'entre eux a ses propres tâches, tout mettre en tas et tester quelque chose est une profanation.
C'est un peu une réflexion après coup.
Il existe différents types d'AO, l'optimisation locale et l'optimisation globale...
Le local, ce sont les gradients, le même adam, etc. Le global, c'est la génétique, etc...
Les réseaux sont formés localement parce que c'est rapide, "il y a beaucoup d'échelles".
et il n'est tout simplement pas efficace de former des OA globaux...
Et le plus important, c'est que si vous entraînez un neurone normal, qui représente environ un milliard de poids, avec une AO globale, premièrement, vous devrez attendre longtemps, et deuxièmement, vous ne pouvez en aucun cas garantir que vous avez trouvé le minimum global.....
Donc tout ce discours est une profanation de l'eau pure, SUPER croyance naïve que ceux qui ont créé l'apprentissage profond ne connaissent pas les algorithmes d'optimisation globale et leurs propriétés, c'est tellement évident que ce n'est même pas drôle.....
C'est horrible.
Il n'y a pas de division des algorithmes en "locaux" et "globaux". Si un algorithme reste bloqué dans l'un des extrema locaux, il s'agit d'un défaut, pas d'une caractéristique.
Les algorithmes sont généralement utilisés pour des tâches spécifiques, mais tous les algorithmes sans exception peuvent être comparés en termes de qualité de convergence.
merci)))
alors je vois la nécessité d'inclure les algorithmes traditionnellement utilisés avec les neurones dans l'examen également.
c'est terrible.
il n'y a pas de division des algorithmes en "locaux" et "globaux". si un algorithme reste bloqué dans l'un des extrema locaux, il s'agit d'un défaut, pas d'une caractéristique.
On utilise des algorithmes de descente de gradient, ce qui est général, pas pour les neurones, et qui a une énorme barbe. Cherchez sur Google et ne posez pas de questions puériles, après avoir appris comment la descente de gradient surmonte les différents types de pièges des extrema locaux. C'est quelque chose que les gens font spécifiquement depuis des années.
J'ai lu une fois que si l'erreur ne change pas beaucoup pendant quelques cycles, c'est-à-dire qu'elle tourne autour d'un extremum, alors pour vérifier si elle est locale, on fait un saut important dans les paramètres pour sortir de cet extremum. S'il est local, il n'y reviendra pas lors des prochains sauts, s'il est global, il y reviendra. On peut répéter l'opération plusieurs fois. En général, il faut explorer l'espace plus largement.
c'est terrible.
il n'y a pas de division des algorithmes en "locaux" et "globaux". si un algorithme reste bloqué dans l'un des extrema locaux, il s'agit d'un défaut, pas d'une caractéristique.
Les algorithmes sont généralement utilisés pour des tâches spécifiques, mais tous les algorithmes sans exception peuvent être comparés en termes de qualité de convergence.
Il s'agit de 5 )))))))))
Avez-vous fréquenté la même université que Maximka ?