Réseaux neuronaux hybrides. - page 22

 
gumgum >> :
algorithme c-means qui a une description détaillée ?

WiKi, k-means, c-means, et google ...

A quoi voulez-vous l'utiliser ?

 
rip >> :

WiKi, k-means, c-means, et google ...

A quoi voulez-vous l'utiliser ?

>> Hybride à croquer.


Au fait, avez-vous essayé les gradients de coefficient ? J'ai la division zéro dehors !

 

Peut-être que quelqu'un a déjà écrit, peut-être pas...


Après avoir essayé plusieurs algorithmes, j'ai un problème >>en[N/2]*en(nombre d'exemples d'entraînement) pour atteindre un niveau d'erreur suffisant. J'ai initialisé les poids par(MathRand()-MathRand())/32767.


L'initialisation des poids via DoubleTostr et StrToDouble conduit à + de résultats pour atteindre le but !


double ranD(int rsign)
{
string ran="0.";
for(int z=1; z<=25; z++)
{
ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble( ran);
if( rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if( dip<0){ randou=(-1)* randou;}
   if( dip==0){ randou=0;}
   }
return( randou);
}


 

Le sujet est déjà envahi de toiles d'araignée...


J'ai remarqué cette chose... Supposons que nous ayons un réseau neuronal x-n1-n2-y. Entraînons-le avec le grade ORO en mode batch. <br />Un peu différemment.


Créer un nouvel ensemble MG=S à partir de l'ensemble d'apprentissage S et le partitionner en K sous-ensembles (finis) M tels que l'intersection M(n)&M(n+1)!=0

Ignorer tous les sous-ensembles d'apprentissage M1,M2,M3,...,M(n),M(n+1) de l'ensemble MG et choisir M(emin) et corriger l'erreur si M(emin)<e ; sinon, il faut d'abord M(emin)/M(emin)--1.


C'est la meilleure façon d'apprendre.

 
gumgum >> :

Le sujet est déjà envahi de toiles d'araignée...


J'ai remarqué une telle chose... Supposons que nous ayons un réseau neuronal x-n1-n2-y. Entraînons-le avec ORO grad en mode batch. <br class='autobr' /> légèrement différent.


À partir de l'ensemble d'apprentissage S, créez un nouvel ensemble MG=S et divisez-le en K sous-ensembles (finis) M qui croisent M(n)&M(n+1)!=0.

Nous sautons tous les sous-ensembles d'apprentissage M1,M2,M3,...,M(n),M(n+1) de l'ensemble MG et choisissons M(Emin) et corrigeons l'erreur si M(Emin)<e ; sinon, nous avons encore besoin de M(Emin)/M(Emin)--1.


Eh bien, c'est une bien meilleure façon de s'entraîner.


Que montre le sous-ensemble de test ? Comment se comporte l'erreur ?

La méthode décrite se retrouve parfois dans la littérature comme un mode batch modifié.

 

Camarades. Si quelqu'un a mis en œuvre des algorithmes d'apprentissage stochastique. Partagez vos impressions, vos expériences, etc. (je n'ai pas besoin du code source).

P.S. Merci d'avance.