L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 2827

 
mytarmailS #:
h ttps:// youtu.be/4yrp71kAZxU
.

Qu'est-ce qui est si intéressant ?

 
lorsque vous entraînez des neurones, êtes-vous sûr qu'ils ne sont pas bloqués quelque part au niveau local ?
 
Andrey Dik #:
lorsque vous entraînez des neurones, êtes-vous sûr qu'ils ne sont pas bloqués quelque part au niveau local ?

En neuronique, le découpage en lots permet d'éviter

Dans d'autres algorithmes d'optimisation, il est également utile d'exécuter ou de diviser en lots plusieurs fois, par exemple

en plus d'ajuster le pas de gradient et d'autres astuces.

Vous devriez toujours explorer le voisinage de l'optimum en changeant les hyperparamètres pour voir si le système peut survivre.
 
Algorithme d'optimisation pour la répartition en lots ????? )
 
Maxim Dmitrievsky #:

Dans le domaine de la neuronique, le fractionnement en lots permet d'éviter les problèmes liés à l'utilisation de la technologie.

dans d'autres algorithmes d'optimisation, il est également utile d'exécuter ou de diviser en lots plusieurs fois, comme dans le cas des algorithmes d'optimisation de l'énergie.

ainsi que d'ajuster le pas de gradient et d'autres astuces.

Il faut encore explorer le voisinage de l'optimum en modifiant les hyperparamètres pour voir dans quelle mesure le système peut survivre.

Je suis gêné de demander ce que sont les lots ?

Non, je veux dire, comment pouvez-vous être sûr que le neurone ne reste pas bloqué quelque part ? Est-il testé pour sa résistance au brouillage ?

 
Andrey Dik #:

J'ai honte de demander ce que sont les lots.

Non, je veux dire, comment pouvez-vous être sûr que le neurone ne reste pas bloqué quelque part ? Est-il testé pour sa résistance au blocage ?

Il est testé sur de nouvelles données, par le biais d'un arrêt précoce, par exemple.

Lorsque l'erreur diminue sur les données d'apprentissage et commence à croître sur les nouvelles données. Tant que l'erreur ne commence pas à croître sur les nouvelles données, cela signifie qu'elle n'est pas encore bloquée.

Les lots sont des paquets de données pour l'entraînement : il n'est pas nécessaire d'entraîner l'ensemble des données en une seule fois, vous pouvez diviser les données en paquets et les entraîner à chaque itération.

Étant donné que les optima de chaque paquet varient, la moyenne sera moins qu'optimale pour tous les paquets.

En principe, il est assez difficile de déterminer quel est l'optimum. Et si l'échantillon est décalé, que faire ? Comment trouver cet optimum global dans un sous-échantillon décalé ?

Si la question porte en principe sur les algorithmes d'optimisation, vous avez raison de la poser. Mais vous commencez alors à déplacer des échantillons, ce qui crée plus de problèmes que cette question.

si vous passez un peu de la théorie à la pratique :)

 
Maxim Dmitrievsky #:

est testé sur de nouvelles données, par le biais d'un arrêt anticipé, par exemple.

lorsque l'erreur diminue sur les données d'apprentissage et commence à augmenter sur les nouvelles données. Tant que l'erreur ne commence pas à augmenter sur les nouvelles données, cela signifie que nous ne sommes pas encore bloqués.

les lots sont des paquets de données pour l'entraînement : il n'est pas nécessaire d'entraîner l'ensemble des données en une seule fois, vous pouvez diviser les données en paquets et les entraîner à chaque itération.

étant donné que les optima de chaque paquet varient, la moyenne sera inférieure à l'optimum pour tous les paquets.

En principe, il est difficile de déterminer quel est l'optimum. Et si l'échantillon est décalé, que faire ? Comment trouver cet optimum global dans un sous-échantillon décalé ?

Si la question porte en principe sur les algorithmes d'optimisation, vous avez raison de la poser. Mais vous commencez alors à déplacer des échantillons, ce qui crée plus de problèmes que cette question.

si vous passez un peu de la théorie à la pratique :)

ah, j'ai donc bien compris votre première réponse. il n'y a aucun moyen de vérifier la résistance de la confiture.

Ce que vous dites "l'erreur diminue sur les échantillons d'entraînement et commence à augmenter sur les nouveaux échantillons" n'est pas un test de blocage, mais juste un critère pour arrêter l'entraînement.

ma question porte sur les algorithmes d'optimisation que les gens utilisent ici pour entraîner les neurones, et non sur l'augmentation de la stabilité des neurones sur de nouvelles données, ce qui constitue la deuxième étape. en fait, la première étape n'a pas du tout été abordée ici jusqu'à présent))))

 
Andrey Dik #:

Il n'y a aucun moyen de tester la résistance au brouillage.

Ce que vous dites à propos de "l'erreur diminue sur les formations et commence à augmenter sur les nouvelles" n'est pas un test de résistance au brouillage, mais simplement un critère d'arrêt de la formation.

ma question porte sur les algorithmes d'optimisation que les gens utilisent ici pour entraîner les neurones, et non sur l'augmentation de la stabilité des neurones sur de nouvelles données, ce qui constitue la deuxième étape. en fait, la première étape n'a pas du tout été abordée ici pourtant))))

Eh bien, comme si oui, elle n'avait pas été abordée. Ce qui est le plus populaire dans les neurones est l'algorithme d'optimisation d'Adam. Vous pouvez peut-être le tester d'une manière ou d'une autre
 
Maxim Dmitrievsky #:
En quelque sorte, oui, mais sans en parler. Dans les neurones, l'algorithme d'optimisation d'Adam est le plus populaire. Vous pouvez peut-être le tester d'une manière ou d'une autre

Et voilà, on n'en parle pas du tout.

En pratique, cela signifie que le neurone sera sous-entraîné, c'est-à-dire que l'erreur sur les nouvelles données commencera à croître plus tôt que si un AO plus résistant au bourrage était utilisé.