Hybride neuronale Netze. - Seite 22

 
gumgum >> :
c-means-Algorithmus, wer hat eine detaillierte Beschreibung?

WiKi, k-means, c-means, und google ...

Wofür wollen Sie es verwenden?

 
rip >> :

WiKi, k-means, c-means, und google ...

Wofür wollen Sie es verwenden?

>> Hybrid zum Knirschen.


Haben Sie übrigens schon Koeffizientengradienten ausprobiert? Ich habe Division Null raus!

 

Vielleicht hat schon jemand geschrieben, vielleicht auch nicht...


Nachdem ich mehrere Algorithmen ausprobiert habe, habe ich ein Problem >>in[N/2]*in(Anzahl der Trainingsbeispiele), um ein ausreichendes Fehlerniveau zu erreichen. Ich habe die Gewichte mit(MathRand()-MathRand())/32767 initialisiert.


Die Initialisierung der Gewichte über DoubleTostr und StrToDouble führt zu + Ergebnissen der Zielerreichung!


double ranD(int rsign)
{
string ran="0.";
for(int z=1; z<=25; z++)
{
ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble( ran);
if( rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if( dip<0){ randou=(-1)* randou;}
   if( dip==0){ randou=0;}
   }
return( randou);
}


 

Das Thema ist bereits mit Spinnweben überwuchert...


Mir ist diese Sache aufgefallen... Angenommen, wir haben ein neuronales Netz x-n1-n2-y. Trainieren wir es mit ORO grad. im Batch-Modus. <e ein wenig anders.


Bilden Sie eine neue Menge MG=S aus der Trainingsmenge S und unterteilen Sie sie in K (endliche) Teilmengen M, so dass die Schnittmenge M(n)&M(n+1)!=0

Ignoriere alle Lernteilmengen M1,M2,M3,...,M(n),M(n+1) der MG-Menge und wähle M(emin) und korrigiere den Fehler, wenn M(emin)<e stop, wenn nicht, dann brauchen wir zuerst M(emin)/M(emin)--1.


Das ist die beste Art zu lernen.

 
gumgum >> :

Das Thema ist bereits mit Spinnweben überwuchert...


Ich habe so etwas bemerkt... Angenommen, wir haben ein neuronales Netz x-n1-n2-y. Trainieren wir es mit ORO grad im Batch-Modus. <e ein wenig anders.


Aus der Trainingsmenge S wird eine neue Menge MG=S gebildet und in K(endliche) Teilmengen M unterteilt, die M(n)&M(n+1) schneiden!=0

Wir überspringen alle Lernuntermengen M1,M2,M3,...,M(n),M(n+1) der MG-Menge und wählen M(Emin) und korrigieren den Fehler, wenn M(Emin)<e stop, wenn nicht, dann brauchen wir noch M(Emin)/M(Emin)--1.


Nun, das ist eine viel bessere Art der Ausbildung.


Was zeigt die Testteilmenge? Wie verhält sich der Fehler?

Die beschriebene Methode wird in der Literatur manchmal als modifizierter Batch-Modus bezeichnet.

 

Kameraden. Wenn jemand stochastische Lernalgorithmen implementiert hat. Teilen Sie Ihre Eindrücke, Erfahrungen usw. mit (ich brauche keinen Quellcode).

P.S. Vielen Dank im Voraus.