L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2828

 
Oui, je jetterai un coup d'œil à adam quand j'en aurai le temps, et je ferai quelques tests.
 
Andrey Dik #:
Oui, je jetterai un coup d'œil à adam à l'occasion, pour faire quelques tests.
Les articles sont excellents, mais je ne suis pas assez qualifié pour argumenter quoi que ce soit :)
 
Maxim Dmitrievsky #:
Les articles sont excellents, mais je n'ai pas les compétences pour m'opposer à quoi que ce soit :)

merci))))

alors je vois la nécessité d'inclure les algorithmes traditionnellement utilisés avec les neurones dans l'examen également.

 
Andrey Dik #:

Dans la pratique, cela signifie que le neurone sera sous-entraîné.

C'est un peu une réflexion après coup.

il y a différents types d'AO, l'optimisation locale et l'optimisation globale...

L'optimisation locale consiste en des gradients, le même Adam, etc... L'optimisation globale consiste en une génétique, etc...

Les réseaux sont formés avec l'OA locale parce que c'est rapide, "il y a beaucoup de poids".

et il n'est tout simplement pas efficace d'entraîner l'OA globale...


Et le plus important est que si vous entraînez un neurone normal, qui représente environ un milliard de poids, avec l'OA globale, premièrement, vous devrez attendre longtemps, et deuxièmement, vous ne pouvez en aucun cas garantir que vous avez trouvé un minimum global.....

Donc tout ce discours est une profanation de l'eau pure, SUPER croyance naïve que ceux qui ont créé le deep learning ne connaissent pas les algorithmes d'optimisation globale et leurs propriétés, c'est tellement évident que ce n'est même pas drôle.....


Vous apprendrez à distinguer les algorithmes d'optimisation globale des algorithmes d'optimisation locale, et puis il y a l'optimisation discrète, l'optimisation continue, l'optimisation multicritère, etc....

Et chacun d'entre eux a ses propres tâches, tout mettre en tas et tester quelque chose est une profanation.

 
mytarmailS #:

C'est un peu une réflexion après coup.

Il existe différents types d'AO, l'optimisation locale et l'optimisation globale...

Le local, ce sont les gradients, le même adam, etc. Le global, c'est la génétique, etc...

Les réseaux sont formés localement parce que c'est rapide, "il y a beaucoup d'échelles".

et il n'est tout simplement pas efficace de former des OA globaux...


Et le plus important, c'est que si vous entraînez un neurone normal, qui représente environ un milliard de poids, avec une AO globale, premièrement, vous devrez attendre longtemps, et deuxièmement, vous ne pouvez en aucun cas garantir que vous avez trouvé le minimum global.....

Donc tout ce discours est une profanation de l'eau pure, SUPER croyance naïve que ceux qui ont créé l'apprentissage profond ne connaissent pas les algorithmes d'optimisation globale et leurs propriétés, c'est tellement évident que ce n'est même pas drôle.....

C'est horrible.

Il n'y a pas de division des algorithmes en "locaux" et "globaux". Si un algorithme reste bloqué dans l'un des extrema locaux, il s'agit d'un défaut, pas d'une caractéristique.

Les algorithmes sont généralement utilisés pour des tâches spécifiques, mais tous les algorithmes sans exception peuvent être comparés en termes de qualité de convergence.

 
Andrey Dik #:

merci)))

alors je vois la nécessité d'inclure les algorithmes traditionnellement utilisés avec les neurones dans l'examen également.

J'ai lu une fois que si l'erreur ne change pas beaucoup pendant plusieurs cycles, c'est à dire qu'elle est autour d'un extremum, alors pour vérifier si elle est locale, on fait un saut important dans les paramètres pour sortir de cet extremum. Si l'erreur est locale, elle n'y reviendra pas lors des sauts suivants ; si elle est globale, elle y reviendra. On peut répéter l'opération plusieurs fois. En général, il est nécessaire d'explorer l'espace plus largement.
 
Andrey Dik #:

c'est terrible.

il n'y a pas de division des algorithmes en "locaux" et "globaux". si un algorithme reste bloqué dans l'un des extrema locaux, il s'agit d'un défaut, pas d'une caractéristique.

On utilise des algorithmes de descente de gradient, ce qui est général, pas pour les neurones, et qui a une énorme barbe. Cherchez sur Google et ne posez pas de questions puériles, après avoir appris comment la descente de gradient surmonte les différents types de pièges des extrema locaux. C'est quelque chose que les gens font spécifiquement depuis des années.

 
elibrarius #:
J'ai lu une fois que si l'erreur ne change pas beaucoup pendant quelques cycles, c'est-à-dire qu'elle tourne autour d'un extremum, alors pour vérifier si elle est locale, on fait un saut important dans les paramètres pour sortir de cet extremum. S'il est local, il n'y reviendra pas lors des prochains sauts, s'il est global, il y reviendra. On peut répéter l'opération plusieurs fois. En général, il faut explorer l'espace plus largement.
Oui, c'est vrai, c'est une façon d'essayer de ne pas rester bloqué. D'ailleurs, je regardais le vol de Levi l'autre jour, il est tiré de ce sujet.
 
Voici une comparaison intéressante, par exemple, entre Adam et la génétique ou une colonie de fourmis, par exemple. Un trader peut être confronté à un dilemme : que doit-il utiliser, l'optimiseur MT5 ou NS ? Même s'il choisit l'un ou l'autre, il voudra utiliser l'algorithme le plus efficace.
 
Andrey Dik #:

c'est terrible.

il n'y a pas de division des algorithmes en "locaux" et "globaux". si un algorithme reste bloqué dans l'un des extrema locaux, il s'agit d'un défaut, pas d'une caractéristique.

Les algorithmes sont généralement utilisés pour des tâches spécifiques, mais tous les algorithmes sans exception peuvent être comparés en termes de qualité de convergence.

Il s'agit de 5 )))))))))

Avez-vous fréquenté la même université que Maximka ?