L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1966
![MQL5 - Langage des stratégies de trading intégré au terminal client MetaTrader 5](https://c.mql5.com/i/registerlandings/logo-2.png)
Vous manquez des opportunités de trading :
- Applications de trading gratuites
- Plus de 8 000 signaux à copier
- Actualités économiques pour explorer les marchés financiers
Inscription
Se connecter
Vous acceptez la politique du site Web et les conditions d'utilisation
Si vous n'avez pas de compte, veuillez vous inscrire
Passez à python, je vous donnerai des exemples et vous pourrez les utiliser.
Je ne vois pas l'intérêt d'en discuter sur le forum, car RL n'est pas un sujet de niveau débutant.
Dès que j'aurai terminé le livre, je demanderai à )))). Si vous ne connaissez pas le prix du marché, vous avez peut-être raison, je ne sais pas à quoi m'attendre. Si vous ne connaissez pas l'heure, il peut s'agir d'une stratégie différente.
Passez à python, je vous donnerai des exemples et vous pourrez les utiliser.
Je ne vois pas l'intérêt d'en discuter sur le forum, car RL n'est pas un sujet d'entrée de gamme.
Pouvez-vous m'envoyer un courriel ?
eugen420@gmail.com
Pouvez-vous me l'envoyer par e-mail ?
Seulement pour lui, le reste pour des honoraires.
Passez à python, je vous donnerai des exemples et vous pourrez les utiliser.
Je ne vois pas l'intérêt d'en discuter sur le forum, car RL est loin d'être un sujet d'entrée de gamme.
Je vais essayer.
Je vais essayer.
Regardez les vidéos d'introduction sur YouTube.
Oui, c'est ce que je fais))
Oui, je le fais))
La compréhension serait plus rapide si le manuel était rédigé sans erreurs :
La couche cluster est un réseau neuronal à quantification vectorielle de Kohonen (LVQ). La couche cluster regroupe les résultats des dendrites selon l'algorithme standard LVQ. Rappelons que LQV met en œuvre un apprentissage en ligne sans enseignant .
Premièrement, les lettres de l'acronyme sont mélangées (correctement LVQ), deuxièmement, il s'agit d'une méthode d'enseignement AVEC TUTEUR.
si la méthode sans enseignant est appelée VQ (vector quantizatinon), alors il s'agit très probablement d'un neurone, et non de LVQ.
Il est important de noter que le sous-réseau LQV a conservé la mémoire des signaux d'entrée précédents comme mémoire des dernières sorties des neurones LQV. Par conséquent, le réseau neuronal disposait de plus d'informations que celles qui étaient directement transmises à son entrée.
Je ne le comprends pas encore. Il s'agit très probablement de ces connexions des sorties du sous-réseau qui retournent aux neurones. Ils ne font que stocker des informations sur les actions passées.
C'est-à-dire que la mémoire stocke le sous-réseau LQV.
La compréhension serait plus rapide si le manuel était rédigé sans erreurs :
La couche cluster est un réseau neuronal à quantification vectorielle de Kohonen (LVQ). La couche cluster regroupe les résultats des dendrites selon l'algorithme standard LVQ. Rappelons que LQV met en œuvre un apprentissage en ligne sans enseignant .
Premièrement, les lettres de l'acronyme sont mélangées (correctement LVQ), deuxièmement, il s'agit d'une méthode d'enseignement AVEC TUTEUR.
et la méthode sans professeur est appelée VQ (vector quantizatinon), alors il est fort probable que ce soit dans le neurone, et non dans LVQ.
Je ne sais pas... Je l'ai lu 4 fois et je n'ai toujours pas compris, peut-être que le professeur est un renfort là ?
+ il y a aussi des votes venant des couches.
Il est important de noter que le sous-réseau LQV a conservé une mémoire des entrées précédentes comme une mémoire des dernières sorties des neurones LQV. Par conséquent, le réseau neuronal disposait de plus d'informations que celles qui étaient directement transmises à son entrée.
Je ne le comprends pas encore. Il s'agit très probablement de ces connexions des sorties du sous-réseau qui retournent aux neurones. Ils ne font que stocker des informations sur les actions passées.
C'est-à-dire que la mémoire stocke le sous-réseau LQV.
Eh bien, oui, la mémoire dans LQV est sous la forme des dernières sorties des neurones de LQV, mais il est, comme je le comprends, la mémoire est seulement un pas en arrière ...
Et cette fantastique analogie avec la bouilloire et le café ? C'est le graal.
Il ne vous a rien dit ?
Je me demande où ils enseignent ces trucs. C'est comme la cybernétique, la robotique, et...
Les DataSynthiens sont juste des physiciens éducateurs à l'institut technologique).
==============================================================
il y a aussi le LVQ dynamique - - dlvq
https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq
Détails
dlvq : Les données d'entrée doivent être normalisées pour utiliser DLVQ.
Apprentissage DLVQ : un vecteur moyen (prototype) est calculé pour chaque classe et stocké dans un module caché (nouvellement créé). Le réseau est ensuite utilisé pour classer chaque motif en utilisant le prototype le plus proche. Si un motif est mal classé dans la classe y au lieu de la classe x, le prototype classe y est éloigné du motif et le prototype classe x est rapproché du motif.Cette procédure est répétée de manière itérative jusqu'à ce qu'il n'y ait plus de changements dans la classification. Ensuite, de nouveaux prototypes sont introduits dans le réseau pour chaque classe en tant que nouvelles unités cachées et initialisés par le vecteur moyen des modèles mal classés dans cette classe.
Architecture du réseau : le réseau n'a qu'une seule couche cachée contenant une unité pour chaque prototype. Les prototypes/unités cachées sont également appelés vecteurs du livre de codes. Étant donné que le SNNS génère des unités automatiquement et ne nécessite pas de spécification préalable du nombre d'unités, la procédure du SNNS est appelée LVQ dynamique .
Les fonctions d'initialisation, d'apprentissage et de mise à jour par défaut sont les seules adaptées à ce type de réseau. Les trois paramètres de la fonction d'apprentissage définissent deux taux d'apprentissage (pour les cas correctement / incorrectement classés) et le nombre de cycles pour lesquels le réseau est entraîné avant de calculer les vecteurs moyens.
Références
Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.
=========================================================
Mec, j'ai lu cette LVQ, c'est juste comme Kohonen (SOM) mais avec un professeur.
https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=La%20Apprentissage%20Vector%20Quantization%20algorithme,ces%20instances%20devraient%20s'apparenter%20à.
Qui a résolu le problème de la quantification d'une fourchette numérique par rapport à l'objectif ? Dans mon cas, il s'agit d'une "quantification" non uniforme - un processus d'auto-adaptation à la cible avec une limite des chiffres minimums de la plage ou de la fenêtre elle-même en expression numérique - pas encore décidé.
Les expériences avec CatBoost montrent que la quantification affecte fortement (dans certains cas jusqu'à 15% acurasi) le résultat.
Qui a résolu le problème de la quantification d'une fourchette numérique par rapport à l'objectif ? Dans mon cas, il s'agit d'une "quantification" non uniforme - un processus d'auto-adaptation à la cible avec une limite des chiffres minimums de la plage ou de la fenêtre elle-même en expression numérique - pas encore décidé.
Les expériences avec CatBoost montrent que la quantification affecte fortement (jusqu'à 15% acurasi dans certains cas) le résultat.
https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html
paquet pour la discrétisation (quantification) par rapport à la cible