L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1897

 
Vous n'allez pas le croire, mais j'ai un raisonnement physique pour l'apprentissage profond qui correspond si bien à ma théorie... Haute matière, qu'est-ce que je peux dire... Je ferais mieux d'aller au son et d'écrire bientôt. Parce que les gens deviennent de plus en plus séniles, il est urgent de briser ces mythes... ....
 
Rorschach:

"Un algorithme d'apprentissage profond avec un enseignant atteint une qualité acceptable avec environ 5000 exemples marqués par catégorie"

Pour m1 c'est un recyclage tous les jours sur des histoires par semaine, pour m5 une fois par semaine sur des histoires par mois.

Pour les autres méthodes, existe-t-il des chiffres à comparer ?

5000 par puce est la norme générale, mieux vaut entre 5000 et 10000.
 
Rorschach:
Je ne vois pas l'intérêt de se recycler au fur et à mesure... Rien ne change fondamentalement, je cours depuis le troisième mois sans reconversion, aucun changement de qualité. Tout dépend de la durée de l'historique sur lequel le réseau a été formé. Si vous chargez pendant 3 à 5 ans, le réseau formera des règles stables qui ont fonctionné pendant toute cette période et s'en souviendra.
 
Valeriy Yastremskiy:

Je ne comprends toujours pas l'heure, 1, 2, 9 heures c'est juste l'heure du terminal ?

Il semble difficile de faire une erreur ici.

Je peux écrire un article, parce que ce n'est pas une option d'expliquer chaque point sur le forum.

J'ai beaucoup de choses intéressantes comme du code python, du clustering, de l'analyseur d'arbre...

J'ai compris les conditions d'entrée dans les échanges, vous pouvez ajouter des bots prêts à l'emploi pour générer des bots prêts à l'emploi, c'est cool.
 
Maxim Dmitrievsky:

il semble difficile de faire une erreur ici.

Je peux écrire un article, car expliquer chaque point sur le forum n'est pas une option.

et il y a beaucoup de choses intéressantes comme du code python, du clustering, de l'analyseur d'arbre...

J'ai compris les modalités de saisie des transactions, je peux ajouter des bots prêts à l'emploi pour les générer en une fois, c'est cool

je vois, l'article serait bien))))

 
Valeriy Yastremskiy:

Je vois, l'article serait bien))))

mais sur les nouvelles données se déverse comme une tsuchka, comme tout le MO. En période de formation, c'est magnifique.

Je voulais contourner le réentraînement en introduisant des clusters grossiers, mais quelque chose a mal tourné ;))

 
Maxim Dmitrievsky:

mais sur les nouvelles données se déverse comme une tsuchka, comme tout le MO. Sur la période de formation, c'est magnifique.

Je voulais contourner le recyclage en introduisant des clusters grossiers, mais quelque chose a mal tourné ;))

J'ai besoin d'un contrôle de correspondance de ligne réelle pour en tester un (juste pour dire) Mais je ne comprends pas comment le faire, jusqu'à présent, que le décalage serait acceptable, ou du moins compréhensible.

 
Valeriy Yastremskiy:

Nous devons contrôler la correspondance de la série réelle à la série test (pour dire) Mais comment faire, je ne comprends pas encore, pour que le décalage soit acceptable, ou du moins compréhensible.

tout est déjà dans l'idée - des modèles saisonniers groupés, qui sont censés se répéter (et qui, en fait, le font parfois).

Mais... mauvais manteau. Ou l'arbre est fortement surentraîné et vous devez former et analyser un réseau de neurones.

Mais c'est n'importe quoi, si l'arbre ne montre rien, c'est qu'il n'y a pas de régularité. L'apprentissage profond ne sert à rien.
 
Evgeny Dyuka:
5000 par fonctionnalité est la norme générale, mieux vaut entre 5000 et 10000.

Phrase complète : Un algorithme d'apprentissage profond avec un enseignant atteint une qualité acceptable avec environ 5000 exemples étiquetés par catégorie et est comparable ou même supérieur à un humain s'il est entraîné sur un ensemble de données contenant au moins 10 millions d'exemplesétiquetés .

Les données et la puissance sont tout.


Evgeny Dyuka:
Je ne vois pas l'intérêt d'une formation supplémentaire en cours de route... Rien ne change en principe, je travaille depuis le troisième mois sans aucune reconversion, il n'y a pas de changement de qualité. Tout dépend de la durée de l'histoire sur laquelle le filet a été formé. Si vous chargez pendant 3 à 5 ans, le réseau formera des règles stables qui ont fonctionné pendant tout ce temps et s'en souviendra.

Cela dépend de l'approche du problème. Si vous pensez que les systèmes vivent pendant un temps limité, alors vous devez optimiser régulièrement, plus la TF est petite, plus elle est fréquente.


Pour exclure les minima locaux comme cause possible des problèmes, il est logique de tracer lanorme du gradient en fonction du temps .Si la norme du gradient ne diminue pas presque jusqu'à zéro, le problème n'est pas celui desminima locaux.

Vous avez déjà fait ça ?

 
Rorschach:

Tu n'as pas fait ça ?

C'est un peu délicat. J'alimente simplement le réseau avec différents ensembles de caractéristiques et je l'attrape quand il commence à montrer des signes d'apprentissage. Ensuite, je le teste immédiatement sur un marché réel. Le filet répond à la question "haut/bas" ; les réponses sont donc dans toutes les bougies, mais avec des degrés de confiance variables. Tout est simple : pas d'ouverture de position, pas de profits et pas de pertes.