SOM : méthodes de cuisson - page 8

 
Sych:

Puis-je voir le rapport complet (en-tête) ? La partie inférieure a été coupée.

Je l'ai mis à jour.

alexeymosc:

C'est cool. Quelle est la stratégie ? L'affaire est-elle conclue par le nombre de barres (par temps) ou autrement ?

Maintenant, chaque signal est traité séparément. C'est-à-dire qu'il est ouvert lorsqu'un neurone oblique tombe, et fermé après un certain temps.
 

Je l'ai. Skewed signifie probablement avec un écart de probabilité de 50% ? Et la condition de fermeture est liée à chaque neurone ? Qu'est-ce qui est faussé ? 55% ? 60% ?

 
alexeymosc:

J'ai compris. Skewed doit signifier avec un écart de probabilité de 50% ? Et la condition de fermeture est liée à chaque neurone ? Qu'est-ce qui est faussé ? 55% ? 60% ?

Ouais. Environ un facteur de 1,5, ce qui fait environ 60-40 -- voici un bout de code :

{
   if (positive/(negative + 1.0) > 1.5 && count > 3)
   {
      OpenBuy(Magic, TP, SL, TradeLot);
   }
   
   if (negative/(positive + 1.0) > 1.5 && count > 3)
   {
      OpenSell(Magic, TP, SL, TradeLot);
   }
}

J'ai trouvé un petit bug... Ce sera bientôt de retour à la normale.

 
Super !
 
TheXpert:

Mis à jour.

Il y a de l'optimisme mais pas beaucoup.

Vous pouvez améliorer ces chiffres :

Moyenneopération rentable121.33commerce perdant-130.51
Nombre maximalgains continus (profit)17 (1227.10)Pertes continues (perte)11 (-2390.10)

?

C'est-à-dire, soit réduire le nombre moyen de transactions perdantes par rapport aux transactions rentables, soit réduire le nombre de pertes continues.

Je comprends qu'il s'agit d'un OOS, mais ce que vous enseignez est la façon dont il se comportera.

Peut-être que la correction de l'erreur découverte améliorera le résultat, ce sera intéressant à voir.

 

Les gens ont besoin de l'avis d'un expert sur le SOM.

Je m'intéresse particulièrement à la façon de contrôler la distribution du nombre de motifs dans les clusters.

 

Bonjour !

Je n'ai pas eu d'accès internet correct depuis une semaine. J'écris tard.

Je l'ai lu ici : http://www.eicstes.org/EICSTES_PDF/PAPERS/The%20Self-Organizing%20Map%20(Kohonen).pdf

Le problème de la distribution optimale des vecteurs d'entrée sur les cellules d'un CCS dépend tout d'abord d'une formation adéquate du CCS. Kohonen écrit que le nombre d'itérations de formation doit être au moins 500 fois supérieur au nombre de neurones du réseau ! Par exemple, si nous formons un réseau de 100 neurones (10 par 10), le nombre d'itérations doit être d'au moins 50 000. Franchement, l'entraînement d'un tel réseau sur un PC ordinaire, à condition que le vecteur d'entrée soit très grand (disons 40), prendra plusieurs jours. L'heuristique suggérée par Kohonen est qu'il devrait y avoir au moins 10 000 itérations d'entraînement. C'est trop, IMHO, mais comme option, nous pouvons réduire la taille du vecteur d'entrée et voir ce qui se passe.

Le deuxième point, lié à l'apprentissage SCS, tiré du même article, est que la taille du vecteur d'entrée n'affecte pas le nombre d'itérations d'apprentissage, c'est-à-dire que tout dépend de la puissance du PC.

Troisièmement, le rayon de formation des neurones, comme suggéré dans l'article, devrait initialement être très grand (vous pouvez le faire plus de la moitié du diamètre de l'ACS) pour établir l'"ordre topologique" de base sur l'ACS ; ensuite, le rayon est réduit de façon inversement proportionnelle au nombre d'itérations jusqu'à 0, c'est-à-dire lorsque la correction des poids d'un seul neurone a lieu. En même temps, l'ordre topologique original établi au début de la formation n'est pas rompu, mais il est affiné dans des zones locales de la carte. Voir là.

Une autre chose liée à l'apprentissage est un pas d'apprentissage qui devrait également être grand au début (environ 1) et ensuite diminuer de façon inversement proportionnelle au nombre d'itérations, et la fonction de dépendance du pas par rapport au nombre d'itérations passées peut être à la fois linéaire et non linéaire. A la fin de la formation, le pas reste très petit pendant un long moment, moins de 0.01, pour affiner le LCS.

L'article parle également du prétraitement des données pour l'entraînement, mais dans l'application à la reconnaissance de la parole et des images. Dans notre cas, il s'agit d'une série chronologique, nous devons donc creuser ailleurs. Je sais que l'application de SOM aux séries chronologiques a fait l'objet de nombreuses discussions.

 

Sur quelle base pensez-vous que le SOM est même possible dans le cadre de l'autotrading ?

Afin de concentrer votre vision sur quelque chose, vous devez savoir de quoi il s'agit.

Sur les données historiques (ce qui est ce que vous voulez que le réseau apprenne), il y a un nombre presque infini de mouvements de prix possibles. Comment le réseau doit-il déterminer lui-même ce qu'il doit faire et ce à quoi il doit prêter attention ?

Imaginez un enfant avec d'innombrables jouets autour de lui. Malgré les innombrables jouets, (ou plutôt, c'est pour cela) l'enfant ne saura jamais que tel jouet est une voiture et que tel autre est un ours en peluche. En tant que parent, vous devez d'abord dire à votre enfant que ce jouet s'appelle une voiture et le laisser plusieurs fois essayer de trouver ce jouet particulier parmi les autres. L'enfant sera alors capable d'identifier la voiture et de ne jamais la confondre avec l'ours en peluche.

Le SOM ne peut être déclenché que si le filet sait ce qu'il vise, ce n'est qu'à ce moment-là qu'il peut concentrer sa vision. Il peut s'agir de l'identification d'un numéro de plaque d'immatriculation ou de la recherche d'un mot ou d'une phrase par le traducteur automatique. Cependant, vous devrez d'abord apprendre au réseau à reconnaître des chiffres ou des mots, et seulement ensuite le laisser libre de nager.

Que voulez-vous/pouvez-vous offrir au réseau sur le flux de données historiques ? Et sur quoi comptez-vous ?