Les réseaux neuronaux, comment les maîtriser, par où commencer ? - page 12

 
Neutron >> :

Peu importe comment vous faites tourner le NS, peu importe ce que vous mettez dans ses entrées, il n'y a certainement pas de miracles !

Donc, ce que nous obtenons : d'une part, plus la NS est stratifiée, plus son pouvoir prédictif est élevé, mais il est insensé de construire plus de trois couches - la grille à trois couches est déjà un approximateur universel.

En général, non, je ne vais pas discuter - je m'ennuie.

Il s'ensuit que plus le SN est stratifié, plus l'échantillon de formation devra être utilisé pour sa formation. Non seulement la complexité de l'apprentissage augmente comme P^3, mais nous pouvons aussi manquer de données !


C'est la deuxième fois que je vois ce diplôme. Faisons le calcul.


Prenons par exemple un réseau m - n - k -- les lettres représentent le nombre de neurones respectivement dans la couche d'entrée, la couche cachée et la couche de sortie.

La complexité de la propagation du signal est O(m*n + n*k) pour des synapses entièrement couplées.

La complexité de la propagation en retour est similaire.

Introduisons maintenant une couche cachée supplémentaire de la même taille.

La complexité est O(m*n + n*n + n*k).

Prenons le rapport : on obtient (m + n + k)/(m + k).


En outre, l'introduction de la 2ème couche cachée permet de réduire spécifiquement la taille de la 1ère couche.

À cette fin, j'ai créé trois mailles - 1, 2 et 3 - dans Mathcad et j'ai comparé les résultats de la prédiction d'un signe d'incréments de cotier un compte à l'avance (j'ai recueilli les statistiques de 100 expériences indépendantes). Les résultats sont les suivants :

1 - p=10% de signes correctement devinés (probabilité=1/2+p).

2 - 15-16%

3 - 12%

Il y a quelques paramètres libres ici : la dimension de l'entrée et le nombre de neurones dans la ou les couches. Le premier paramètre était le même pour toutes les architectures, le second était choisi personnellement. Nous voyons que la grille NS à 3 couches n'est pas une panacée, et peut-être que pour nous, traders, la meilleure option pour le bloc analytique MTS est une grille à deux couches - du point de vue de la précision maximale des prévisions et des exigences minimales en matière de complexité de formation (puissance de RS, historique important et sa non-croissance).

Il est grand temps de penser à une NS fractale avec un nombre fractionnaire de couches :)) . 2.5 serait juste bien.

 

méthode hypothétique pour maîtriser la technologie NS
étape 1.

construire un NS dans NS avec une sortie achat/vente, l'alimenter avec Close[x], regarder le graphique, voir - la grille est bruyante !
étape 2.

Maintenant, nous alimentons quelque chose de plus lisse que le devis initial, mais NS est bruyant de toute façon.
Pourquoi ? Parce que le professeur est inégal. Je suis trop paresseux pour le faire à la main. (Vous avez besoin d'un spiralizer ici)
étape 3.

Lisez l'article de Reshetov, envoyez NS, entraînez-le dans le testeur et remarquez - sans aucune fonction d'erreur définie explicitement.
Alors le testeur de stratégie gronde, le développeur ronronne, dit que Reshetov est intelligent, qu'il a tout compris, qu'il a inventé un vrai professeur.
Cependant, Reshetov est un malin, mais mon ordinateur ne fonctionne pas bien avec MT-4, alors où est MT-5 ?
Et pour 4 entrées, ce "NS" est à nouveau bruyant. Or, les données historiques s'avèrent être inégales - elles contiennent différents types de marchés et nous ne savons pas lesquels)
.... nous répétons les étapes 1-3 dans la boucle.
étape 4.

nous nous rendons compte que nous sommes coincés - nous ne pouvons pas faire croître le réseau, MQL est lent, et l'entraînement des neuropathes est un peu loin du commerce.
étape 5.

Penser à la croisée des chemins - maintenant que nous avons commencé à travailler avec NS, nous savons que NS n'est pas tant des mathématiques que de la technologie,
peut être sauvé par NS Trader, il a un meilleur testeur.
bien et...
à quoi ça sert tout ça ?
étape 6

Si nous inventons un réseau et que nous l'entraînons, au cours de ce processus, il devient plus clair ce dont nous avons réellement besoin et la vraie chose est réalisée sans NS,
sans NS du tout.
il s'avère que
Le NS n'est nécessaire que pour comprendre ce qui peut être expliqué pendant que vous l'expliquez à une personne muette))))

 
TheXpert писал(а) >>

Faisons le calcul.

A la page 7 du topic dont j'ai posté l'archive avec l'article, il y a une estimation de la complexité de la formation (p.65-66) : C=P*w^2=d*P^2=(w^4)/d, ce qui suggère que je me suis légèrement planté (un peu enceinte) et que la complexité est proportionnelle à d*P^2 ou par le nombre de synapses : (w^4)/d

De même, l'introduction d'une 2ème couche cachée permet de réduire spécifiquement la taille de la 1ère couche.

D'où cela vient-il ?
 
Neutron >> :
D'où cela vient-il ?

Si ce n'est pas strictement, alors indirectement à partir du nombre de paramètres réglables. Strictement nyahsil. Je ne suis pas doué pour les preuves.

Et si j'ajoute ma propre idée, je pense en fait depuis un certain temps que la meilleure structure de vitesse non linéaire de convergence du perseptron est le chevron, mais je ne l'ai pas encore vérifié.

Quand j'y arriverai, je le dessinerai.


Quelques idées pour le Nouvel An :)) .

 
Korey писал(а) >>
>>) Le but de NS est de lui expliquer quelque chose de stupide et de comprendre ce qu'elle explique).

Il y a un point important que vous n'avez pas voulu aborder : vous devrez expliquer le NS une fois (et vous le comprendrez aussi, comme vous l'avez bien noté), et ensuite, comme un tour, il travaillera sur le monde changeant (cotier), sans se soucier que vous compreniez parfaitement ce que cela signifie !

TheXpert a écrit >>

structure du perseptron -- chevron

Qu'est-ce que vous fumez ?

Oh, je comprends ! Eh bien, ça ressemble vraiment à un arbre de Noël. J'ai la même chose à un niveau intuitif.

 
Neutron >> :

...

D'où cela vient-il ?

lire haykin -------> point 4.15. Méthodes de simplification du réseau

 

L'algorithme que vous choisissez pour apprendre ne fait aucune différence. Le résultat est le même). Il ne faut pas creuser dans le réseau neuronal, il faut chercher les entrées.

 
PraVedNiK писал(а) >>

lire haykin -------> point 4.15. Méthodes de simplification du réseau

Pas de problème. >> Lisons-le !

 

Epicéa ! L'intuition n'a rien à voir avec cela, NS est un codeur pyramidal, + il est similaire à FFT.
Par exemple, sur la base du modèle de codeur pyramidal, il est élémentaire de calculer le nombre minimal de neurones.

i.e. le codeur pyramidal est la couverture minimale de la NS conçue.

 
Neutron >> :

Qu'est-ce que vous fumez ?

Quitter :)

Oh, je comprends ! Eh bien, ça ressemble vraiment à un arbre de Noël. J'ai eu la même chose au niveau des tripes.