Redes neuronales híbridas. - página 11

 
gumgum >> :

................

¿Para qué sirve todo esto?

 
joo писал(а) >>

>> ¿Cuál n?

 

Lo siento, chicle, pero no sé por qué ni para qué. O soy tonto, o hay algo que no me estás contando.

¿Qué sentido tiene optimizar una función tan sencilla?

 

Para reducir suavemente el error, hay que elegir una tasa de aprendizaje muy baja, pero esto puede llevar un tiempo de aprendizaje inaceptablemente largo.

Aquí estoy pensando si se cambia funcionalmente el ritmo de aprendizaje durante el proceso de aprendizaje.

 
joo писал(а) >>

Lo siento, chicle, pero no sé por qué ni para qué. O soy tonto, o hay algo que no me estás contando.

¿Qué sentido tiene optimizar una función tan sencilla?

No es necesario optimizarlo.

 
Joo, gracias por el enlace, ¡muy interesante!
 
gumgum >> :

>> No necesita ser optimizado.

El gradiente es realmente algo útil, pero no siempre resuelve el problema

 
gumgum >> :

¿Se trata de un descenso de gradiente o algo así? No sé cómo, y no sé qué haría.

No lo sé todo sobre todos los métodos de optimización, sólo hablo de lo que se me da bien, por eso sugería hacer un ff, para comparar tu método con otros y aprender algo nuevo.

 
IlyaA писал(а) >>

Más claro no puede estar :-D. Hazme un favor, descríbelo con otras palabras desde el principio. O simplemente usar más palabras.

Voy a hacer un experimento hoy.... >> ¡Lo publicaré mañana!

 
gumgum >> :

>> No necesita ser optimizado.

¡Tu pensamiento es correcto! Eso es lo que hacen al crecer las épocas, reducir la curva de aprendizaje