L'Apprentissage Automatique dans le trading : théorie, modèles, pratique et trading algo - page 630

 
Yuriy Asaulenko:
Je ne vais pas affirmer, mais il me semble que ce sont des illusions. Juste pour des raisons générales.
Pourquoi, Vladimir Perervenko a quelques informations dans ses articles, ils apprennent très vite sur des centaines d'entrées
 
Maxim Dmitrievsky:
Pourquoi, Vladimir Perevenko a des informations dans ses articles, ils sont formés très rapidement sur des centaines d'entrées.

Je n'ai pas lu les articles et je ne discuterai pas. Je n'ai vu que des photos).

Un MLP, par exemple, peut être parfaitement formé en 10-15 minutes et il fonctionnera parfaitement. Oui, mais c'est si les données sont bien classées, les ensembles sont séparés.

Si au contraire - si par exemple sur le marché (ou dans vos échantillons de formation) il n'y a tout simplement pas d'ensembles séparables, alors enseignez ce que vous voulez pour toujours - il n'y aura aucun résultat.

 
Maxim Dmitrievsky:
Pourquoi, Vladimir Perevenko a des informations dans ses articles, ils apprennent très vite sur des centaines d'entrées

Tout dépend de l'architecture et de la quantité de données.
Des réseaux pour la reconnaissance des formes apprennent pendant une semaine sur GPU. Et il y a des dizaines de couches avec des tenseurs tridimensionnels.

 
Aleksey Terentev:

Tout dépend de l'architecture et de la quantité de données.
Les réseaux de reconnaissance des formes prennent une semaine à apprendre sur un GPU. Il y a des dizaines de couches avec des tenseurs tridimensionnels.

il y a décrit les plus simples - réseau de Boltzmann + MLP, par exemple.

https://www.mql5.com/ru/articles/1103#2_2_2

Третье поколение нейросетей: "Глубокие нейросети"
Третье поколение нейросетей: "Глубокие нейросети"
  • 2014.11.27
  • Vladimir Perervenko
  • www.mql5.com
Нейросети второго поколения Глубокое обучение Практические эксперименты Программная реализация (индикатор и эксперт) Введение В статье будут рассмотрены основные понятия по теме "Глубокое обучение" (Deep Learning), "Глубокие нейросети" (Deep Network) без сложных математических выкладок, как говорят, "на пальцах". Будут проведены эксперименты с...
 
Yuriy Asaulenko:

Je n'ai pas lu les articles et je ne discuterai pas. Je n'ai vu que des photos).

Un MLP, par exemple, peut être parfaitement formé en 10-15 minutes et il fonctionnera parfaitement. Oui, mais c'est si les données sont bien classées, les ensembles sont séparés.

Si sur le marché (ou dans vos échantillons d'entraînement), il n'y a simplement pas d'ensembles séparables, alors vous pouvez entraîner tout ce que vous voulez pour toujours et il n'y aura pas de résultats.

Faisons simplement une expérience au nom de la "connaissance scientifique".
Choisissons les données, les dimensions, l'architecture MLP, les données de sortie.
Et chacun fera ses propres tests avec ses propres outils.

Le nombre d'incendies diminuera.
D'ailleurs, nous pouvons instaurer une telle tradition et tester chaque nouvelle architecture avec le monde entier. =)

 
Aleksey Terentev:

Faisons une expérience pour le bien de la "connaissance scientifique".
Choisissons les données, les dimensions, l'architecture MLP, la sortie.
Et chacun fera ses propres tests avec ses propres outils.

Le nombre d'incendies diminuera.
D'ailleurs, nous pouvons instaurer une telle tradition et tester chaque nouvelle architecture avec le monde entier. =)

(J'ai peur d'être trop faible). Je ne vois pas l'intérêt de résoudre des problèmes abstraits. Et l'échange d'opinions n'est pas du tout une flamme. J'ai beaucoup appris de cette flamme. et est allé dans une autre direction). Et sans le flamming, j'aurais tout aussi bien pu fouiner.
 

Je partage les premiers résultats de mon NS. L'architecture est la même que celle décrite dans le dieu, je n'ai rien changé.

Le plateau est assez régulier, le NS a bien appris déjà à 1000 passages, les résultats ne se sont pas améliorés beaucoup plus.

J'ai étudié pendant 15 minutes le mois dernier. J'ai dépensé ~0,65$ pour la formation. Mon nombre mensuel de transactions est de ~300.

Les résultats des deux derniers mois ne sont pas mauvais, mais pas trop non plus.

Je vais essayer d'ajouter une couche cachée de plus et de chercher plus d'erreurs :) et ensuite j'essaierai de m'entraîner pendant une plus longue période.

 

Maxim Dmitrievsky:
Pourquoi, Vladimir Perervenko a des informations dans ses articles, ils apprennent très vite sur des centaines d'entrées


Tous les articles fournissent des ensembles de données et des scripts qui peuvent être reproduits pour obtenir des données réelles sur les temps d'apprentissage spécifiquement sur votre matériel. Le temps de formation d'un DNN avec deux couches cachées peut atteindre 1 minute.

Bonne chance

 
Aleksey Terentev:

Faisons une expérience pour le bien de la "connaissance scientifique".
Choisissons les données, les dimensions, l'architecture MLP, la sortie.
Et chacun fera ses propres tests avec ses propres outils.

Le nombre d'incendies diminuera.
D'ailleurs, nous pouvons instaurer une telle tradition et tester chaque nouvelle architecture avec le monde entier. =)

Donnez un exemple. Commencez par
 
Maxim Dmitrievsky:

Je partage les premiers résultats de mon NS. L'architecture est la même que celle décrite dans le dieu, je n'ai rien changé.

Le plateau est assez régulier, le NS a bien appris déjà à 1000 passages, les résultats ne se sont pas améliorés beaucoup plus.

J'ai étudié pendant 15 minutes le mois dernier. J'ai dépensé ~0,65$ pour la formation. Mon nombre mensuel de transactions est de ~300.

Les résultats des deux derniers mois ne sont pas mauvais, mais pas trop non plus.

Je vais essayer d'ajouter une couche cachée de plus et de chercher plus d'erreurs :) et ensuite j'essaierai de m'entraîner pendant une plus longue période.

Vous avez trois neurones à l'entrée de la deuxième couche traitée par sigmoïde ? Comment ajuster les poids sur la deuxième couche dont la plage est choisie de -1 à 1 par pas de 0,1 par exemple.

Dans mon réseau, après le traitement de la deuxième couche , le nombre de transactions a chuté et mes résultats ne se sont pas beaucoup améliorés. C'est différent de l'adaptation d'un perceptron avec 9 entrées et un neurone de sortie, puis de l'adaptation d'un autre perceptron indépendant avec les paramètres enregistrés du premier, etc.