L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 630
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Je ne vais pas affirmer, mais il me semble que ce sont des illusions. Juste pour des raisons générales.
Pourquoi, Vladimir Perevenko a des informations dans ses articles, ils sont formés très rapidement sur des centaines d'entrées.
Je n'ai pas lu les articles et je ne discuterai pas. Je n'ai vu que des photos).
Un MLP, par exemple, peut être parfaitement formé en 10-15 minutes et il fonctionnera parfaitement. Oui, mais c'est si les données sont bien classées, les ensembles sont séparés.
Si au contraire - si par exemple sur le marché (ou dans vos échantillons de formation) il n'y a tout simplement pas d'ensembles séparables, alors enseignez ce que vous voulez pour toujours - il n'y aura aucun résultat.
Pourquoi, Vladimir Perevenko a des informations dans ses articles, ils apprennent très vite sur des centaines d'entrées
Tout dépend de l'architecture et de la quantité de données.
Des réseaux pour la reconnaissance des formes apprennent pendant une semaine sur GPU. Et il y a des dizaines de couches avec des tenseurs tridimensionnels.
Tout dépend de l'architecture et de la quantité de données.
Les réseaux de reconnaissance des formes prennent une semaine à apprendre sur un GPU. Il y a des dizaines de couches avec des tenseurs tridimensionnels.
il y a décrit les plus simples - réseau de Boltzmann + MLP, par exemple.
https://www.mql5.com/ru/articles/1103#2_2_2
Je n'ai pas lu les articles et je ne discuterai pas. Je n'ai vu que des photos).
Un MLP, par exemple, peut être parfaitement formé en 10-15 minutes et il fonctionnera parfaitement. Oui, mais c'est si les données sont bien classées, les ensembles sont séparés.
Si sur le marché (ou dans vos échantillons d'entraînement), il n'y a simplement pas d'ensembles séparables, alors vous pouvez entraîner tout ce que vous voulez pour toujours et il n'y aura pas de résultats.
Faisons simplement une expérience au nom de la "connaissance scientifique".
Choisissons les données, les dimensions, l'architecture MLP, les données de sortie.
Et chacun fera ses propres tests avec ses propres outils.
Le nombre d'incendies diminuera.
D'ailleurs, nous pouvons instaurer une telle tradition et tester chaque nouvelle architecture avec le monde entier. =)
Faisons une expérience pour le bien de la "connaissance scientifique".
Choisissons les données, les dimensions, l'architecture MLP, la sortie.
Et chacun fera ses propres tests avec ses propres outils.
Le nombre d'incendies diminuera.
D'ailleurs, nous pouvons instaurer une telle tradition et tester chaque nouvelle architecture avec le monde entier. =)
Je partage les premiers résultats de mon NS. L'architecture est la même que celle décrite dans le dieu, je n'ai rien changé.
Le plateau est assez régulier, le NS a bien appris déjà à 1000 passages, les résultats ne se sont pas améliorés beaucoup plus.
J'ai étudié pendant 15 minutes le mois dernier. J'ai dépensé ~0,65$ pour la formation. Mon nombre mensuel de transactions est de ~300.
Les résultats des deux derniers mois ne sont pas mauvais, mais pas trop non plus.
Je vais essayer d'ajouter une couche cachée de plus et de chercher plus d'erreurs :) et ensuite j'essaierai de m'entraîner pendant une plus longue période.
Maxim Dmitrievsky:
Pourquoi, Vladimir Perervenko a des informations dans ses articles, ils apprennent très vite sur des centaines d'entrées
Tous les articles fournissent des ensembles de données et des scripts qui peuvent être reproduits pour obtenir des données réelles sur les temps d'apprentissage spécifiquement sur votre matériel. Le temps de formation d'un DNN avec deux couches cachées peut atteindre 1 minute.
Bonne chance
Faisons une expérience pour le bien de la "connaissance scientifique".
Choisissons les données, les dimensions, l'architecture MLP, la sortie.
Et chacun fera ses propres tests avec ses propres outils.
Le nombre d'incendies diminuera.
D'ailleurs, nous pouvons instaurer une telle tradition et tester chaque nouvelle architecture avec le monde entier. =)
Je partage les premiers résultats de mon NS. L'architecture est la même que celle décrite dans le dieu, je n'ai rien changé.
Le plateau est assez régulier, le NS a bien appris déjà à 1000 passages, les résultats ne se sont pas améliorés beaucoup plus.
J'ai étudié pendant 15 minutes le mois dernier. J'ai dépensé ~0,65$ pour la formation. Mon nombre mensuel de transactions est de ~300.
Les résultats des deux derniers mois ne sont pas mauvais, mais pas trop non plus.
Je vais essayer d'ajouter une couche cachée de plus et de chercher plus d'erreurs :) et ensuite j'essaierai de m'entraîner pendant une plus longue période.
Vous avez trois neurones à l'entrée de la deuxième couche traitée par sigmoïde ? Comment ajuster les poids sur la deuxième couche dont la plage est choisie de -1 à 1 par pas de 0,1 par exemple.
Dans mon réseau, après le traitement de la deuxième couche , le nombre de transactions a chuté et mes résultats ne se sont pas beaucoup améliorés. C'est différent de l'adaptation d'un perceptron avec 9 entrées et un neurone de sortie, puis de l'adaptation d'un autre perceptron indépendant avec les paramètres enregistrés du premier, etc.