L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 3394

 
СанСаныч Фоменко #:

Je regarde mon code.

Plusieurs modèles se trouvent au milieu ( ?) de tout le code R. Si vous retirez les modèles du code R et que vous les placez ailleurs, vous obtiendrez un code complètement différent qui devra être débogué à nouveau !

Et pourquoi ?

Il y a µl et R avec une séparation fonctionnelle évidente des CTs. L'ensemble mcl et R fonctionne de manière stable ..... et quelle est la place d'ONNX ici ?

Essayez de vendre votre script sur le marché
 

Requiem pour RL et ode au transformateur causal

*Tout algorithme RL peut être considéré comme un optimiseur global

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

 
Maxim Dmitrievsky #:

Requiem pour RL et ode au transformateur causal

*tout algorithme RL peut être perçu comme n'importe quel optimiseur global

https://ai.plainenglish.io/reinforcement-learning-is-dead-long-live-the-transformer-228835689841

Malheureusement... pas de schmooze non plus

https://www.mql5.com/ru/articles/13712

Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
Нейросети — это просто (Часть 63): Предварительное обучение Трансформера решений без учителя (PDT)
  • www.mql5.com
Продолжаем рассмотрение семейства методов Трансформера решений. Из предыдущих работ мы уже заметили, что обучение трансформера, лежащего в основе архитектуры данных методов, довольно сложная задача и требует большого количества размеченных обучающих данных. В данной статье мы рассмотрим алгоритм использования не размеченных траекторий для предварительного обучения моделей.
 

Les LLM sont probablement les jouets préférés des linguistes en ce moment :)


 
Maxim Dmitrievsky #:
Es-tu en train de dire que tu es plus cool que moi ?

Puisque le second a dit que c'était le Graal,

donnez-moi une évaluation objective.

dans les informations de la bande-annonce

et lien :

GitHub - alfiyandyhr/nn_ga_benchmark : NN+GA : Un cadre d'optimisation basé sur les substituts utilisant un réseau neuronal et un algorithme génétique

GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm
  • alfiyandyhr
  • github.com
NN+GA: A Surrogate-Based Optimization Framework Using Neural Network and Genetic Algorithm - GitHub - alfiyandyhr/nn_ga_benchmark: NN+GA: A Surrogate-Based Optimization Framework Using Neural Netwo...
 
Renat Akhtyamov #:

parce que le copain a dit que c'était le Graal,

donnez une évaluation objective, s'il vous plaît

dans les infos sur la bande-annonce

et le lien :

GitHub - alfiyandyhr/nn_ga_benchmark : NN+GA : Un cadre d'optimisation basé sur les substituts utilisant un réseau neuronal et un algorithme génétique

Il est impossible de dire quoi que ce soit quand on ne sait pas ce qui est optimisé et pourquoi. La méthode elle-même est bonne, mais elle peut être lente, comme la méthode de descente stochastique. C'est-à-dire qu'elle peut mettre beaucoup de temps à converger.

 
Maxim Dmitrievsky #:

Il est impossible de dire quoi que ce soit quand on ne sait pas ce qui est optimisé et pourquoi. La méthode elle-même est bonne, mais elle peut être lente, comme la méthode de descente stochastique. C'est-à-dire qu'elle peut prendre beaucoup de temps pour converger.

Algorithmes génétiques + réseaux neuronaux = le meilleur des deux mondes (skine.ru)
Генетические алгоритмы + нейронные сети = лучшее из обоих миров
  • skine.ru
Узнайте, как можно ускорить обучение нейронной сети с помощью генетических алгоритмов!
 
Maxim Dmitrievsky #:

Oui chapeau

très probablement

un compagnon avait un signal qui allait vers les livantos avec un succès naturel.

 
Renat Akhtyamov #:

très probablement

un compagnon avait un signal qui est entré dans les livantos avec un succès naturel.

On dit d'abord que cela accélérera la courbe d'apprentissage. Ensuite, on dit qu'il faut beaucoup de ressources déductibles. C'est votre style d'information.


En général, on utilise l'optimisation des hyperparamètres sur une grille, NN+GA est différent, les poids doivent être déterminés par GA, et non par un solveur standard comme adam.

L'article en lien est confus.