Réseaux neuronaux hybrides. - page 4

 
joo >> :

à dentraf

MQL4

à IlyaA

Oui, je le fais. Et aussi environ 200-300 livres de différents auteurs. Mais j'ai pensé que je maîtriserai NN et GA par moi-même plus vite que de lire cette bibliothèque. Et c'est ce qui s'est passé. Plus vite.

Par maîtrise, j'entends application pratique, et non pas connaissance de la terminologie.


puis Haykin p. 330, chapitre 4.19 J'ai une bonne maîtrise de cette chose. Vous aurez le coup de main en un rien de temps.
 
joo >> :

Je voudrais également vous conseiller sur ce point. Créez une population supplémentaire dans laquelle vous placez les meilleurs individus de chaque époque (je l'appelle le "pool génétique d'époque" ou GE). Lors de l'accouplement, prenez des individus de la population actuelle et de la GE. Cela réduit considérablement le nombre de démarrages intempestifs. Cette méthode ne doit pas être confondue avec la sélection des élites.


Allons au fond du problème du croisement. Je choisis le mien par probabilité, ce qui reflète à quel point ce perceptron a fait mieux que les autres. Par conséquent, le meilleur a 80% de chances de participer à chaque paire, et le moins bon 20%. C'est ainsi qu'ils vivent. Qu'entendez-vous par votre méthode de population supplémentaire.
 
IlyaA >> :
>>Merci. >> Très détaillé. En gros, oui, si vous avez déjà exécuté l'algorithme plusieurs fois avec différents paramètres, alors utilisez les résultats. Alors 200... Très bien, continuons comme ça. Puis le point suivant. Nous devons rechercher le "faux" rentable (combinaison de chandeliers et d'indicateurs) en le cherchant non pas avec nos yeux mais avec le perceptron. Laissez-le construire des groupes linéairement séparables pour nous. Critères de recherche Profit => max. S'arrêter à volonté. Puis analyse des poids et identification de la "feinte". Puis un indicateur et un système de trading normal. Assez compliqué, mais c'est à première vue. Le tâtonnement avec les échelles est très intéressant (du moins pour moi). Question :) Je dois faire l'historique sur 5 ans des chandeliers + indicateurs (optionnels) par individu, et il y en a maintenant 200 sur chaque population. Il s'agit d'une énorme consommation de ressources, et nous ne savons pas quand nous nous arrêterons. Essayons de reformuler le problème ou de préserver la propriété la plus importante de cette conception - la détection d'un "fink" par une machine.

5 ans sur quel TF ? Si M1, oui, depuis longtemps. Si W1, très rapide.

Il n'est pas nécessaire de faire du réseau un enfant prodige et d'essayer d'enseigner au réseau tous les moments historiques (phénomènes rentables). La plupart d'entre eux ne se reproduiront jamais, du moins 99 %.

Je considère que 1000-3000 barres d'histoire sont optimales. Pour se recycler lorsque l'erreur pendant le fonctionnement dépasse le niveau spécifié. Bien que sur le nombre d'exemples (barres), il y a des opinions différentes, peut-être maintenant il y a des gens qui s'opposent à cette question.

 
joo >> :

5 ans sur quel TF ? Si M1, oui, depuis longtemps. Si W1, alors très rapide.

Il n'est pas nécessaire de faire du réseau un enfant prodige et d'essayer d'enseigner au réseau tous les moments historiques (phénomènes rentables). La plupart d'entre eux ne se reproduiront jamais, du moins 99 %.

Je considère que 1000-3000 barres d'histoire sont optimales. Pour se recycler lorsqu'une erreur pendant le fonctionnement dépasse un niveau spécifié. Bien que le nombre d'exemples (barres), il y a des points de vue différents, peut-être maintenant il y a des gens qui sont opposés sur cette question.


Eh bien, je suppose que je vais commencer. Pourquoi est-ce que je suggère beaucoup de bars ? Parce que (question personnelle, réponse personnelle), comme cela a été correctement noté, la plupart des fennecs sont jetables et le net peut les "entailler". Et tout se passera comme d'habitude, sur l'intervalle testé, le chocolat, sur tous les autres, la nourriture pour la subsistance. Ma suggestion est que le meilleur filtre pour les moments jetables est de les intégrer. La grille aura plus de chance d'isoler le problème répétitif. Quelle est votre idée ?
 
gumgum >> :

Hier, j'ai écrit une grille 10-15-10-1

>> continuez...


Avez-vous vérifié que le perceptron n'a pas fait l'objet d'un apprentissage excessif (sur-apprentissage, cogging) ?
 
IlyaA >> :


Alors Haykin p. 330, chapitre 4,19 Je possède bien cette chose. Vous aurez le coup de main en un rien de temps.

Je n'ai pas encore eu le temps de lire, mais je le ferai peut-être. Merci.

IlyaA a écrit(a) >>.

Découvrons l'essence des croisements. Je choisis le mien par probabilité, ce qui reflète à quel point ce perceptron a fait mieux que les autres. Par conséquent, le meilleur a 80% de chances de participer à chaque paire, et le moins bon 20%. C'est ainsi qu'ils vivent. Qu'entendez-vous par votre méthode de supplément de population.

Oui. La progéniture de ces parents est introduite dans la nouvelle population. Les autres individus meurent ignominieusement sans avoir jamais connu l'amour. :)

C'est là que le bât blesse ! Nous ne savons pas s'il y avait des spécimens décents parmi les morts. Qu'importe s'ils ressemblent à des monstres, ils auraient pu produire une nouvelle génération forte.

Abordez la question de l'AG comme si vous essayiez d'élever un cygne à partir de mouches drosophiles.

L'algorithme est le suivant :

1 Créez une population d'individus aléatoires (la plupart d'entre eux sont laids).

2 Nous avons déterminé l'adaptabilité.

Trois, nous avons répliqué la population dans le pool génétique.

4 Croiser des individus de la population et du pool génétique (en sélectionnant de-ci de-là).

5 Placer les nouveaux individus dans la nouvelle population

6 Déterminer la fitness de chaque individu

7 Prendre les meilleurs individus de l'ancienne population et de la nouvelle population et les placer dans le pool génétique s'ils sont meilleurs que ceux du pool génétique (remplacer).

8 Remplacer l'ancienne population par des individus de la nouvelle population.

9 répéter avec p4

et ainsi de suite, jusqu'à ce qu'il n'y ait plus de meilleur que le meilleur dans le pool génétique.

 
Merde, pendant que j'écris l'article, tu en écris trois !, calme-toi un peu :)
 
joo >> :

Je n'ai pas encore eu le temps de lire, mais je le ferai peut-être. Merci.

Oui. La progéniture de ces parents est introduite dans la nouvelle population. Les autres meurent ignominieusement sans avoir jamais connu l'amour. :)

C'est la partie la plus délicate ! Nous ne savons pas, peut-être y avait-il des individus dignes parmi ceux qui sont morts ? Et si elles sont laides, elles ont peut-être donné naissance à une nouvelle génération forte.

Abordez la question de l'AG comme si vous essayiez d'élever un cygne à partir de mouches drosophiles.

L'algorithme est le suivant :

1 Créez une population d'individus aléatoires (la plupart d'entre eux sont laids).

2 Nous avons déterminé l'adaptabilité.

Trois, nous avons répliqué la population dans le pool génétique.

4 Croiser des individus de la population et du pool génétique (en sélectionnant de-ci de-là).

5 Placer les nouveaux individus dans la nouvelle population

6 Déterminer la fitness de chaque individu

7 Prendre les meilleurs individus de l'ancienne population et de la nouvelle population et les placer dans le pool génétique s'ils sont meilleurs que ceux du pool génétique (remplacer).

8 Remplacer l'ancienne population par des individus de la nouvelle population.

9 répétez avec p4.

et ainsi de suite jusqu'à ce qu'il n'y ait plus rien de mieux que le meilleur du pool génétique.




Ok. Je vais attendre et voir :) Cette méthode est très similaire à la recherche de rayons. J'ai comparé les performances de l'algorithme de recherche de rayon avec le croisement probabiliste. Les résultats étaient meilleurs (moins de populations) avec le croisement probabiliste. Cependant, si vous l'utilisez, il y a de fortes chances qu'il fonctionne bien. Tu dois faire une expérience. Comment tu vois les choses. Disons sur XOR ?
 
IlyaA >> :


Eh bien, je suppose que je vais commencer. Pourquoi est-ce que je suggère beaucoup de bars ? Parce que (question personnelle, réponse personnelle), comme cela a été noté à juste titre, la plupart des phé-niques sont jetables et le réseau peut les "apprendre par cœur". Et tout se passera comme d'habitude, sur l'intervalle testé, le chocolat, sur tous les autres, la nourriture pour la subsistance. Ma suggestion est que le meilleur filtre pour les moments jetables est de les intégrer. La grille aura plus de chance d'isoler le problème répétitif. Quelle est votre idée ?

Pensez à NN comme si vous pensiez à votre cerveau. Comment allez-vous "intégrer" cela ? Imaginez que vous vous y connaissez en peinture. Peut-être que tu l'es vraiment.

Vous connaissez les techniques caractéristiques des maîtres célèbres (fics rentables). Maintenant, collez le travail de tous les maîtres célèbres dans photoshop dans un seul calque. Connaissez-vous des astuces d'artistes connus ? J'en doute. NN aussi.

 
joo >> :

Pensez à NN comme si vous pensiez à votre cerveau. Comment allez-vous "intégrer" cela ? Imaginez que vous vous y connaissez en peinture. Peut-être que tu le fais vraiment.

Ainsi, vous connaissez les techniques caractéristiques des maîtres célèbres (jetons rentables). Maintenant, collez le travail de tous les maîtres célèbres dans photoshop dans un seul calque. Trouverez-vous une seule astuce d'un auteur célèbre que vous connaissez ? J'en doute. NN aussi.


Qu'est-ce que le bruit intégrateur ? (Encore une fois, j'ai demandé et répondu :) Vous avez une variable aléatoire m(t) qui est uniformément distribuée sur les intervalles [-1 ; 1]. Par conséquent, l'espérance = 0. C'est génial. Nous avons également un signal s(t) de configuration complexe. L'amplitude du signal et du bruit ont des valeurs comparables. Le problème est d'extraire s(t) de s(t) + m(t) à condition que s(t) + m(t) puissent être répétés un nombre illimité de fois. L'interférence sera nouvelle à chaque fois, la courbe du signal sera très différente de la courbe précédente. La méthode est étonnamment simple : trouver la valeur moyenne du signal s(t) + m(t) sur 1000 répétitions. Dans ce cas, l'interférence qui avait une espérance mathématique nulle a été intégrée et supprimée. Plus on peut faire la moyenne du signal s(t) + m(t), moins il y aura d'interférences. Voici à nouveau mon idée plus en détail.

Pour empêcher le réseau de découvrir toutes les caractéristiques à la fois (appelons-le effet d'abstractionnisme), nous réduirons le nombre de neurones, obtenant ainsi un avantage dans la capacité de généralisation du réseau et l'impossibilité pour le perceptron d'apprendre une grande quantité de matériel. Nous allons orienter le réseau pour trouver une seule chose, mais la plus rentable dans les données. Qu'en pensez-vous ?