Redes neurais híbridas. - página 11

 
gumgum >> :

................

Para que serve tudo isso?

 
joo писал(а) >>

>> qual n?

 

Sinto muito, chiclete, mas não sei por que ou para que. Ou eu sou burro, ou há algo que você não está me dizendo.

Qual é o objetivo de otimizar uma função tão simples?

 

A fim de reduzir o erro, você tem que escolher uma taxa de aprendizagem muito baixa, mas isto pode levar um tempo inaceitavelmente longo para aprender.

Aqui estou pensando se você mudar funcionalmente a taxa de aprendizagem durante o processo de aprendizagem.

 
joo писал(а) >>

Sinto muito, chiclete, mas não sei por que ou para que. Ou eu sou burro, ou há algo que você não está me dizendo.

Qual é o objetivo de otimizar uma função tão simples?

Não é necessário otimizá-la.

 
Joo, obrigado pelo link, muito interessante!
 
gumgum >> :

>> Não precisa ser otimizado.

O gradiente é realmente útil, mas nem sempre resolve o problema

 
gumgum >> :

Você está falando de descida por gradiente ou algo assim? Não sei como, e não sei o que isso faz.

Não sei tudo sobre todos os métodos de otimização, só falo sobre aquilo em que sou bom, por isso sugeri executar um ff, para comparar seu método com outros e aprender algo novo.

 
IlyaA писал(а) >>

Não fica mais claro :-D. Faça-me um favor, descreva-o em outras palavras desde o início. Ou simplesmente use mais palavras.

Vou fazer uma experiência hoje.... >> Publicá-lo-ei amanhã!

 
gumgum >> :

>> Não precisa ser otimizado.

Seu pensamento está correto! É isso que eles fazem à medida que as épocas crescem, reduzem a curva de aprendizado