L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 2829

 
Certainement pas dans un ptu ou avec des valeurs libérales.
 
СанСаныч Фоменко #:

Nous utilisons des algorithmes de descente de gradient, qui sont en général, pas pour les neurones, et qui ont une énorme barbe. Nous consultons Google et ne posons pas de questions puériles, après avoir appris comment la descente de gradient surmonte différents types de pièges d'extrema locaux. C'est quelque chose que les gens font spécifiquement depuis des années.

On vous a demandé de tester l'apprentissage/l'optimisation sur quelques fonctions représentatives, c'est une bonne pratique

Si vous pensez que les réseaux neuronaux le font parfaitement, vous vous trompez probablement.

 
Maxim Dmitrievsky #:

Il vous a été suggéré de tester l'apprentissage/optimisation sur quelques fonctions représentatives, ce qui est une bonne pratique.

Si vous pensez que les réseaux neuronaux le font parfaitement, vous vous trompez probablement.

Oui... franchement, je suis surpris que tout le monde n'ait pas perçu de manière adéquate des vérités simples - tout devrait être testé, et la croyance en des dogmes exprimés par quelqu'un signifie la stagnation et la dégradation.

et la descente de gradient et la bekprop sont des méthodes tellement anciennes et misérables qu'il est étrange qu'elles puissent encore être prises au sérieux par certaines personnes.

d'ailleurs, la génétique n'est pas l'algorithme le plus robuste de nos jours. elle devrait être incluse dans le tableau pour... Eh bien, juste pour faire comprendre qu'il y a toujours place à l'amélioration.

 
Andrey Dik #:

Oui... franchement, je suis surpris que tout le monde n'ait pas perçu de manière adéquate des vérités simples - tout devrait être vérifié, et la croyance en des dogmes exprimés par quelqu'un signifie la stagnation et la dégradation.

Et la descente de gradient et le bekprop sont des méthodes tellement anciennes et misérables qu'il est étrange qu'elles puissent encore être prises au sérieux par qui que ce soit.

La perception est spécifique, au niveau du kargo-culte et de la croyance dans le divin R, apportant les cadeaux de la civilisation.

 

D'une part, l'apprentissage est un cas particulier d'optimisation, mais d'autre part, il présente certaines particularités.

1) L'optimisation en MO implique généralement de manière inhérente une optimisation dans un espace de fonction à dimension infinie. Cela se présente sous une forme explicite(gradient bousting, par exemple), mais peut également être implicite. Cela conduit à une incroyable flexibilité des modèles, mais la clarté et la simplicité que l'on trouve dans l'optimisation en dimension finie sont perdues. Par exemple, tout extremum sur un sous-espace de dimension finie peut s'avérer être un point de selle sur un sous-espace de dimension supérieure (qui peut être aussi élevé que vous le souhaitez).

2) Un ensemble fini de fonctions de perte bien gérées est utilisé. Cela permet d'éviter les problèmes liés au premier point. Mais si l'on veut personnaliser la fonction de perte, ce sera soit impossible, soit très difficile.

 
Aleksey Nikolayev #:

D'une part, l'apprentissage...

Alexei, connaissez-vous l'optimisation d'une fonction bruyante ?
 
Il existe une recherche complète et une optimisation. Elle est nécessaire pour réduire le temps nécessaire à la recherche d'une solution optimale. C'est pourquoi il s'agit toujours d'un compromis. On peut optimiser avec la méthode du gradient stochastique et obtenir un meilleur résultat qu'avec adam, mais en sacrifiant du temps. Il faut donc choisir. Pour certaines tâches, la précision peut être plus importante que la vitesse, par exemple pour augmenter l'espérance de la CT.
Dans ce cas, il est intéressant d'examiner les résultats visuels.
 
Andrey Dik #:

c'est terrible.

L'horreur, c'est qu'une personne vienne lire des articles sur l'optimisation sans connaître le sujet, ne serait-ce qu'à 20%, qu'elle ne reconnaisse pas les connaissances communes et qu'elle soit surprise par ces articles....

L'horreur, c'est que des personnes encore moins qualifiées se versent du pus dans le crâne, considérant qu'il s'agit de connaissances provenant de gourous, et que le résultat est un paquet d'infirmes intellectuels...


Et toutes sortes de non-gourous approuvent joyeusement, parce qu'ils sont déjà estropiés et versent eux-mêmes du pus en appelant leurs egos articles....

c'est ça la vraie horreur !!!

 
Tu devrais mâcher ta morve avant de faire des discours pathétiques, ptuschik.

Ce n'est pas très bon.
 
mytarmailS #:

L'horreur, c'est qu'une personne vienne lire des articles sur l'optimisation sans connaître le sujet, ne serait-ce qu'à 20 %, et qu'elle ne reconnaisse pas les connaissances courantes, ce qui la surprend.....

L'horreur, c'est que des personnes encore moins qualifiées se versent du pus dans le crâne et considèrent qu'il s'agit de connaissances provenant de gourous, ce qui donne un groupe d'infirmes intellectuels....

vous feriez mieux de vous taire, vous auriez l'air beaucoup plus intelligent ou au moins mieux élevé.