L'apprentissage automatique dans la négociation : théorie, modèles, pratique et algo-trading - page 1966

 
Maxim Dmitrievsky:

Passez à python, je vous donnerai des exemples et vous pourrez les utiliser.

Je ne vois pas l'intérêt d'en discuter sur le forum, car RL n'est pas un sujet de niveau débutant.

Dès que j'aurai terminé le livre, je demanderai à )))). Si vous ne connaissez pas le prix du marché, vous avez peut-être raison, je ne sais pas à quoi m'attendre. Si vous ne connaissez pas l'heure, il peut s'agir d'une stratégie différente.

 
Maxim Dmitrievsky:

Passez à python, je vous donnerai des exemples et vous pourrez les utiliser.

Je ne vois pas l'intérêt d'en discuter sur le forum, car RL n'est pas un sujet d'entrée de gamme.


Pouvez-vous m'envoyer un courriel ?

eugen420@gmail.com

 
Evgeni Gavrilovi:


Pouvez-vous me l'envoyer par e-mail ?

Seulement pour lui, le reste pour des honoraires.

 
Maxim Dmitrievsky:

Passez à python, je vous donnerai des exemples et vous pourrez les utiliser.

Je ne vois pas l'intérêt d'en discuter sur le forum, car RL est loin d'être un sujet d'entrée de gamme.

Je vais essayer.

 
mytarmailS:

Je vais essayer.

Regardez les vidéos d'introduction sur youtube. C'est la même chose que R, mais avec ses propres caractéristiques. Il ne devrait pas y avoir de problème avec la transition. Mais vous pouvez prendre kotier de mt5 et ouvrir des trades.
 
Maxim Dmitrievsky:
Regardez les vidéos d'introduction sur YouTube.

Oui, c'est ce que je fais))

 
mytarmailS:

Oui, je le fais))

La compréhension serait plus rapide si le manuel était rédigé sans erreurs :

La couche cluster est un réseau neuronal à quantification vectorielle de Kohonen (LVQ). La couche cluster regroupe les résultats des dendrites selon l'algorithme standard LVQ. Rappelons que LQV met en œuvre un apprentissage en ligne sans enseignant .

Premièrement, les lettres de l'acronyme sont mélangées (correctement LVQ), deuxièmement, il s'agit d'une méthode d'enseignement AVEC TUTEUR.

si la méthode sans enseignant est appelée VQ (vector quantizatinon), alors il s'agit très probablement d'un neurone, et non de LVQ.


Il est important de noter que le sous-réseau LQV a conservé la mémoire des signaux d'entrée précédents comme mémoire des dernières sorties des neurones LQV. Par conséquent, le réseau neuronal disposait de plus d'informations que celles qui étaient directement transmises à son entrée.

Je ne le comprends pas encore. Il s'agit très probablement de ces connexions des sorties du sous-réseau qui retournent aux neurones. Ils ne font que stocker des informations sur les actions passées.

C'est-à-dire que la mémoire stocke le sous-réseau LQV.


 
Maxim Dmitrievsky:

La compréhension serait plus rapide si le manuel était rédigé sans erreurs :

La couche cluster est un réseau neuronal à quantification vectorielle de Kohonen (LVQ). La couche cluster regroupe les résultats des dendrites selon l'algorithme standard LVQ. Rappelons que LQV met en œuvre un apprentissage en ligne sans enseignant .

Premièrement, les lettres de l'acronyme sont mélangées (correctement LVQ), deuxièmement, il s'agit d'une méthode d'enseignement AVEC TUTEUR.

et la méthode sans professeur est appelée VQ (vector quantizatinon), alors il est fort probable que ce soit dans le neurone, et non dans LVQ.

Je ne sais pas... Je l'ai lu 4 fois et je n'ai toujours pas compris, peut-être que le professeur est un renfort là ?

+ il y a aussi des votes venant des couches.

Maxim Dmitrievsky:

Il est important de noter que le sous-réseau LQV a conservé une mémoire des entrées précédentes comme une mémoire des dernières sorties des neurones LQV. Par conséquent, le réseau neuronal disposait de plus d'informations que celles qui étaient directement transmises à son entrée.

Je ne le comprends pas encore. Il s'agit très probablement de ces connexions des sorties du sous-réseau qui retournent aux neurones. Ils ne font que stocker des informations sur les actions passées.

C'est-à-dire que la mémoire stocke le sous-réseau LQV.

Eh bien, oui, la mémoire dans LQV est sous la forme des dernières sorties des neurones de LQV, mais il est, comme je le comprends, la mémoire est seulement un pas en arrière ...

Et cette fantastique analogie avec la bouilloire et le café ? C'est le graal.


Il ne vous a rien dit ?

Je me demande où ils enseignent ces trucs. C'est comme la cybernétique, la robotique, et...

Les DataSynthiens sont juste des physiciens éducateurs à l'institut technologique).


==============================================================

il y a aussi le LVQ dynamique - - dlvq

https://www.rdocumentation.org/packages/RSNNS/versions/0.4-2/topics/dlvq

Détails

dlvq : Les données d'entrée doivent être normalisées pour utiliser DLVQ.

Apprentissage DLVQ : un vecteur moyen (prototype) est calculé pour chaque classe et stocké dans un module caché (nouvellement créé). Le réseau est ensuite utilisé pour classer chaque motif en utilisant le prototype le plus proche. Si un motif est mal classé dans la classe y au lieu de la classe x, le prototype classe y est éloigné du motif et le prototype classe x est rapproché du motif.Cette procédure est répétée de manière itérative jusqu'à ce qu'il n'y ait plus de changements dans la classification. Ensuite, de nouveaux prototypes sont introduits dans le réseau pour chaque classe en tant que nouvelles unités cachées et initialisés par le vecteur moyen des modèles mal classés dans cette classe.

Architecture du réseau : le réseau n'a qu'une seule couche cachée contenant une unité pour chaque prototype. Les prototypes/unités cachées sont également appelés vecteurs du livre de codes. Étant donné que le SNNS génère des unités automatiquement et ne nécessite pas de spécification préalable du nombre d'unités, la procédure du SNNS est appelée LVQ dynamique .

Les fonctions d'initialisation, d'apprentissage et de mise à jour par défaut sont les seules adaptées à ce type de réseau. Les trois paramètres de la fonction d'apprentissage définissent deux taux d'apprentissage (pour les cas correctement / incorrectement classés) et le nombre de cycles pour lesquels le réseau est entraîné avant de calculer les vecteurs moyens.

Références

Kohonen, T. (1988), Self-organization and associative memory, Vol. 8, Springer-Verlag.



=========================================================


Mec, j'ai lu cette LVQ, c'est juste comme Kohonen (SOM) mais avec un professeur.

https://machinelearningmastery.com/learning-vector-quantization-for-machine-learning/#:~:text=La%20Apprentissage%20Vector%20Quantization%20algorithme,ces%20instances%20devraient%20s'apparenter%20à.

 

Qui a résolu le problème de la quantification d'une fourchette numérique par rapport à l'objectif ? Dans mon cas, il s'agit d'une "quantification" non uniforme - un processus d'auto-adaptation à la cible avec une limite des chiffres minimums de la plage ou de la fenêtre elle-même en expression numérique - pas encore décidé.

Les expériences avec CatBoost montrent que la quantification affecte fortement (dans certains cas jusqu'à 15% acurasi) le résultat.

 
Aleksey Vyazmikin:

Qui a résolu le problème de la quantification d'une fourchette numérique par rapport à l'objectif ? Dans mon cas, il s'agit d'une "quantification" non uniforme - un processus d'auto-adaptation à la cible avec une limite des chiffres minimums de la plage ou de la fenêtre elle-même en expression numérique - pas encore décidé.

Les expériences avec CatBoost montrent que la quantification affecte fortement (jusqu'à 15% acurasi dans certains cas) le résultat.

https://cran.r-project.org/web/packages/glmdisc/vignettes/glmdisc.html

paquet pour la discrétisation (quantification) par rapport à la cible