Redes neurais híbridas. - página 22

 
gumgum >> :
c significa algoritmo que tem uma descrição detalhada?

WiKi, k significa, c significa, c significa, e google ...

Para que você quer usá-lo?

 
rip >> :

WiKi, k significa, c significa, c significa, e google ...

Para que você quer usá-lo?

>> Híbrido para triturar.


A propósito, você já tentou gradientes de coeficiente? Eu tenho a divisão zero!

 

Talvez alguém já tenha escrito, talvez não...


Depois de tentar vários algoritmos, tenho um problema >>em[N/2]*in(número de exemplos de treinamento) para atingir um nível de erro suficiente. Inicializei os pesos por(MathRand()-MathRand())/32767.


A inicialização dos pesos via DoubleTostr e StrToDouble leva a + resultados de alcançar a meta!


double ranD(int rsign)
{
string ran="0.";
for(int z=1; z<=25; z++)
{
ran= ran+DoubleToStr(MathFloor((MathRand()/32767.0)*10),0);
}
double randou=StrToDouble( ran);
if( rsign==1)
   {
   double dip=(MathRand()-MathRand())/32767.0;
   if( dip<0){ randou=(-1)* randou;}
   if( dip==0){ randou=0;}
   }
return( randou);
}


 

O tema já está superlotado de teias de aranha.


Eu notei isso... Suponha que tenhamos uma rede neural x-n1-n2-y. Vamos treiná-lo com ORO grad. em modo batch. <e um pouco diferente.


Fazer um novo conjunto MG=S do conjunto de treinamento S e dividi-lo em subconjuntos K (finitos) M tal que a interseção M(n)&M(n+1)!=0

Ignorar todos os subconjuntos de aprendizagem M1,M2,M3,...,M(n),M(n+1) do conjunto MG e escolher M(emin) e corrigir erro se M(emin)<e parar se não, então primeiro precisamos de M(emin)/M(emin)--1.


Esta é a melhor maneira de aprender.

 
gumgum >> :

O tema já está superlotado de teias de aranha.


Eu notei tal coisa... Suponha que tenhamos uma rede neural x-n1-n2-y. Vamos treiná-lo com a graduação ORO no modo de lote. <e um pouco diferente.


Faça um novo conjunto MG=S a partir do conjunto de treinamento S e divida em K(finito) subconjuntos M que cruzam M(n)&M(n+1)!=0

Saltamos todos os subconjuntos de aprendizagem M1,M2,M3,...,M(n),M(n+1) do conjunto MG e escolhemos M(Emin) e corrigimos o erro se M(Emin)<e parar se não, então ainda precisamos de M(Emin)/M(Emin)--1.


Bem, esta é uma forma melhor de treinamento.


O que mostra o subconjunto de teste? Como o erro se comporta?

O método descrito às vezes é encontrado na literatura como um modo de lote modificado.

 

Camaradas. Se alguém tiver implementado algoritmos de aprendizagem estocástica. Compartilhe suas impressões, experiências, etc. (não preciso do código fonte).

P.S. Obrigado de antemão.