Reti neurali ibride. - pagina 22

 
gumgum >> :
algoritmo c-means chi ha una descrizione dettagliata?

WiKi, k-means, c-means, e google ...

Per cosa vuoi usarlo?

 
rip >> :

WiKi, k-means, c-means, e google ...

Per cosa vuoi usarlo?

>> Ibrido da sgranocchiare.


A proposito, hai provato i gradienti di coefficiente? Ho la divisione zero fuori!

 

Forse qualcuno ha già scritto, forse no...


Dopo aver provato diversi algoritmi ho un problema >>in[N/2]*in(numero di esempi di allenamento) per raggiungere un livello di errore sufficiente. Ho inizializzato i pesi per(MathRand()-MathRand())/32767.


L'inizializzazione dei pesi tramite DoubleTostr e StrToDouble porta a + risultati di raggiungimento dell'obiettivo!


double ranD(int rsign)
{
string ran="0.";
for(int z=1; z<=25; z++)
{
ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble( ran);
if( rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if( dip<0){ randou=(-1)* randou;}
   if( dip==0){ randou=0;}
   }
return( randou);
}


 

L'argomento è già invaso dalle ragnatele...


Ho notato questa cosa... Supponiamo di avere una rete neurale x-n1-n2-y. Alleniamolo con ORO grad. in modalità batch. <e un po' diversamente.


Fare un nuovo insieme MG=S dall'insieme di allenamento S e partizionarlo in K (finiti) sottoinsiemi M tali che l'intersezione M(n)&M(n+1)!=0

Ignorare tutti i sottoinsiemi di apprendimento M1,M2,M3,...,M(n),M(n+1) dell'insieme MG e scegliere M(emin) e correggere l'errore se M(emin)<e stop se no, allora prima abbiamo bisogno di M(emin)/M(emin)--1.


Questo è il modo migliore per imparare.

 
gumgum >> :

L'argomento è già invaso dalle ragnatele...


Ho notato una cosa del genere... Supponiamo di avere una rete neurale x-n1-n2-y. Alleniamolo con ORO grad in modalità batch. <e leggermente diverso.


Dall'insieme di allenamento S, fare un nuovo insieme MG=S e partizionare in K (finiti) sottoinsiemi M che intersecano M(n)&M(n+1)!=0

Saltiamo tutti i sottoinsiemi di apprendimento M1,M2,M3,...,M(n),M(n+1) dell'insieme MG e scegliamo M(Emin) e correggiamo l'errore se M(Emin)<e stop se no, allora abbiamo ancora bisogno di M(Emin)/M(Emin)--1.


Bene, questo è un modo molto migliore di allenarsi.


Cosa mostra il sottoinsieme di test? Come si comporta l'errore?

Il metodo descritto si trova talvolta in letteratura come modalità batch modificata.

 

Compagni. Se qualcuno ha implementato algoritmi di apprendimento stocastico. Condividete le vostre impressioni, esperienze, ecc. (non ho bisogno del codice sorgente).

P.S. Grazie in anticipo.