Redes neuronales híbridas. - página 22

 
gumgum >> :
Algoritmo c-means que tiene una descripción detallada?

WiKi, k-means, c-means y google ...

¿Para qué quieres usarlo?

 
rip >> :

WiKi, k-means, c-means y google ...

¿Para qué quieres usarlo?

>> Híbrido para crujir.


Por cierto, ¿has probado los gradientes de coeficiente? ¡Tengo la división cero fuera!

 

Tal vez alguien ya escribió, tal vez no...


Después de probar varios algoritmos tengo un problema >>en[N/2]*in(número de ejemplos de entrenamiento) para alcanzar un nivel de error suficiente. He inicializado los pesos por(MathRand()-MathRand())/32767.


¡La inicialización de los pesos a través de DoubleTostr y StrToDouble conduce a + resultados de llegar a la meta!


double ranD(int rsign)
{
string ran="0.";
for(int z=1; z<=25; z++)
{
ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble( ran);
if( rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if( dip<0){ randou=(-1)* randou;}
   if( dip==0){ randou=0;}
   }
return( randou);
}


 

El tema ya está lleno de telarañas...


Me di cuenta de esta cosa... Supongamos que tenemos una red neuronal x-n1-n2-y. Vamos a entrenarlo con ORO grad. en modo batch. <e un poco diferente.


Hacer un nuevo conjunto MG=S a partir del conjunto de entrenamiento S y dividirlo en K subconjuntos (finitos) M tales que la intersección M(n)&M(n+1)!=0

Ignora todos los subconjuntos de aprendizaje M1,M2,M3,...,M(n),M(n+1) del conjunto MG y elige M(emin) y corrige el error si M(emin)<e detiene si no, entonces primero necesitamos M(emin)/M(emin)--1.


Esta es la mejor manera de aprender.

 
gumgum >> :

El tema ya está lleno de telarañas...


Me di cuenta de tal cosa... Supongamos que tenemos una red neuronal x-n1-n2-y. Vamos a entrenarlo con ORO grad en el modo batch. <e un poco diferente.


A partir del conjunto de entrenamiento S, haz un nuevo conjunto MG=S y divídelo en K(finitos) subconjuntos M que intersecten M(n)&M(n+1)!=0

Omitimos todos los subconjuntos de aprendizaje M1,M2,M3,...,M(n),M(n+1) del conjunto MG y elegimos M(Emin) y corregimos el error si M(Emin)<e para si no, entonces todavía necesitamos M(Emin)/M(Emin)--1.


Pues bien, esta es una forma mucho mejor de entrenar.


¿Qué muestra el subconjunto de pruebas? ¿Cómo se comporta el error?

El método descrito se encuentra a veces en la literatura como un modo de lote modificado.

 

Compañeros. Si alguien ha implementado algoritmos de aprendizaje estocástico. Comparte tus impresiones, experiencias, etc. (no necesito el código fuente).

P.D. Gracias por adelantado.