Réseaux neuronaux hybrides. - page 7

 
joo >> :

En fait, je l'ai inventé quand j'étais en 3ème ou 4ème année. Quand extrait-on les racines ? Ici, je faisais des racines carrées, des racines cubiques... Mais sur une feuille de cahier à carreaux.

Je l'ai testé. Les résultats sont vraiment impressionnants.


Voix (vantardise).
 
IlyaA >> :

La tâche que j'ai décrite ne vous a pas touché ? C'est un peu partout. Pas du tout. La plupart des équipements radioélectriques sont construits sur ce principe.

Nous n'extrapolons pas ou ne faisons pas de moyenne, nous isolons. L'intégration du bruit fonctionne ici.

Le but de l'apprentissage n'est pas d'isoler, en les passant au crible, certaines des caractéristiques particulières qui se présentent et de s'en souvenir. Et ce n'est même pas que nous ne pouvons pas faire le tri entre les caractéristiques.

J'ai exposé le principe de l'apprentissage dans l'un des fils de discussion :

L'apprentissage est le processus d'acquisition de la capacité de généraliser, de classer, d'abstraire, d'être capable de tirer des conclusions.

Par quels moyens, c'est une autre question.

IlyaA a écrit(a) >>.

Comment les gens apprennent-ils ? :) Ils lisent un sujet, puis un autre. Chaque sujet est étudié individuellement. Puis ils généralisent. De cette façon, votre grille apprendra par cœur l'image et ne généralisera rien. Elle deviendra hautement spécialisée.

Lire ci-dessus.

IlyaA a écrit(a) >>.

Ne lisez pas trop de livres. Que suggérez-vous ? Regarder la télé et se taper la tête contre le mur ?

Le sens est plus profond qu'il n'y paraît, ou plutôt il semble qu'il n'y ait pas de sens du tout dans ces mots. Il s'agit de penser, de raisonner, de tirer des conclusions, et non d'apprendre par cœur.

IlyaA a écrit(a) >>.

Sonnez la cloche (vantardise).

Je n'en ai pas besoin. Il y avait une question, il y avait une réponse.

 
IlyaA >> :


Oh oui, le réseau aux premiers stades est full-bonded, bien, ou comme les réseaux convolutionnels, mais il y a beaucoup de couches). Et tout ce bonheur est multiplié par 10 et commence à s'accoupler. Chacun d'entre eux doit être traité, c'est-à-dire que nous avons 10x. Et si vous avez l'idée d'enseigner un tour rentable, je dois alors calculer tout l'intervalle de temps pour chaque génération et le faire passer dans chaque descendance. Cette opération était très gourmande en ressources, je reviens donc à ma question initiale.

Pourquoi ne pas utiliser RProp ? Dans le cas de la génétique, il permet d'accélérer considérablement les calculs.

 
joo >> :

Le but de l'apprentissage n'est pas d'isoler, en les triant, certaines caractéristiques particulières qui se présentent et de les mémoriser. Ce n'est même pas que nous ne pouvons pas faire le tri entre les caractéristiques.

J'ai exposé le principe de l'apprentissage dans l'un des fils de discussion :

L'apprentissage est le processus d'acquisition de la capacité de généraliser, de classer, d'abstraire, de tirer des conclusions.

Par quels moyens - c'est une autre question.


Il me semble que nous avons commencé à philosopher et je propose de mettre un terme à la discussion sur cette question par une note de "maintien de nos positions".
 
rip >> :

Pourquoi ne pas utiliser RProp ? Dans le cas de la génétique, elle permet une accélération significative des calculs.


Je reconnais que c'est plus rapide, tout comme la descente de gradient. La différence n'est pas grande. L'intérêt d'utiliser la génétique est que la probabilité de trouver un extrémum GLOBAL est proche de 1. Aucun gradient ne le montrera (corrigez-moi si je me trompe). De plus, la surface d'un hyperplan optimisé est criblée d'un nombre infini d'extrema locaux ayant des amplitudes significatives. Mais de plus en plus de neurones ajoutent de l'huile sur le feu - l'hyperplan devient encore plus complexe. Dans ces conditions, les gradients convergent, mais comme je l'ai écrit plus haut, la probabilité de trouver un extrémum global est de 50-80%.
 
IlyaA писал(а) >>

Je suis d'accord, c'est plus rapide, tout comme la descente de gradient. La différence n'est pas grande. L'intérêt d'utiliser la génétique est que la probabilité de trouver un extrémum GLOBAL est proche de 1. Aucun gradient ne le montrera (corrigez-moi si je me trompe). De plus, la surface d'un hyperplan optimisé est criblée d'un nombre infini d'extrema locaux ayant des amplitudes significatives. Mais de plus en plus de neurones ajoutent de l'huile sur le feu - l'hyperplan devient encore plus complexe. Dans ces conditions, les gradients convergent, mais comme je l'ai écrit plus haut, la probabilité de trouver un extrémum global est de 50-80%.

Avez-vous des résultats concrets de trading avec ce système ? >> Est-ce que ça vaut la peine de faire cet effort ?

 
IlyaA >> :


Je suis d'accord pour dire que c'est plus rapide, tout comme la descente de gradient. La différence n'est pas grande. L'intérêt d'utiliser la génétique est que la probabilité de trouver un extrémum GLOBAL est proche de 1. Aucun gradient ne le montrera (corrigez-moi si je me trompe). De plus, la surface d'un hyperplan optimisé est criblée d'un nombre infini d'extrema locaux ayant des amplitudes significatives. Mais de plus en plus de neurones ajoutent de l'huile sur le feu - l'hyperplan devient encore plus complexe. Dans ces conditions, les gradients convergent mais, comme je l'ai écrit plus haut, la probabilité de trouver un extrémum global est de 50 à 80 %.

Je suis d'accord pour dire que le gradient ne permet pas une convergence à 100% de l'algorithme d'apprentissage.

Je n'utilise les GA que pour obtenir une nouvelle topologie de réseau. En moyenne, RProp atteint un minimum local en 100-200 époques.

Ensuite, les individus les plus performants sont trouvés et une nouvelle population est formée. Mutation. RProp.

 
rip >> :

Je suis d'accord, le gradient ne permet pas une convergence à 100% de l'algorithme d'apprentissage.

Je n'utilise les AG que pour obtenir une nouvelle topologie de réseau. En moyenne, RProp atteint un minimum local en 100-200 époques.

Ensuite, les individus les plus performants sont trouvés et une nouvelle population est formée. Mutation. RProp.


La combinaison signifie. Messieurs, laissez-moi féliciter tout le monde ! Nous venons juste de justifier le nom de la branche. C'est une idée ! Voici ce qui m'est venu à l'esprit. Les mutations génétiques modifient 20 à 40 % des échelles par petits incréments. Y a-t-il une forte probabilité que la progéniture retourne dans l'habitat de ses parents ?
 
FION >> :

Avez-vous des résultats concrets de trading avec ce système ? >> Est-ce que ça vaut la peine de faire cet effort ?


Il n'y a pas de résultats concrets. Seulement des idées et des prédictions. Tous les perceptrons que j'ai fabriqués n'ont pas survécu au stade de l'indicateur. Je les ai rejetés. :( La meilleure idée du moment permet de surmonter l'intensité des ressources de l'algorithme. Mais Vera continue à vivre (Nadya et Lyuba aussi :).
 

Question.

Qui a mis en œuvre les réseaux flous Takagi-Sugeno-Kanga ?