Redes neuronales híbridas. - página 7

 
joo >> :

En realidad, lo inventé cuando estaba en el tercer o cuarto grado. ¿Cuándo se extraen las raíces? Aquí, estaba haciendo raíces cuadradas, raíces cúbicas... Pero en un papel de cuaderno con casillas.

Lo he probado. Los resultados son realmente impresionantes.


Voz (alarde).
 
IlyaA >> :

¿No te ha tocado la tarea que he descrito? Es un poco por todas partes. De ninguna manera. La mayoría de los equipos radioelectrónicos se basan en este principio.

No extrapolamos ni hacemos una media, sino que aislamos. La integración del ruido funciona aquí.

El objetivo del aprendizaje no es aislar, tamizando algunas de las características especiales que se producen y luego recordarlas. Y ni siquiera es que no podamos cribar las características.

En uno de los hilos expuse el principio del aprendizaje:

El aprendizaje es el proceso de adquirir la capacidad de generalizar, de clasificar, de abstraer, de ser capaz de sacar conclusiones.

Con qué medios es otra cuestión.

IlyaA escribió(a) >>.

¿Cómo aprende la gente? :) Leen un tema y luego otro. Cada tema se estudia individualmente. Entonces, generalizan. De esta manera, su cuadrícula memorizará la imagen y no generalizará nada. Se convertirá en algo muy especializado.

Lea arriba.

IlyaA escribió(a) >>.

No leas demasiados libros. ¿Qué sugieres? ¿Ver la televisión y golpearse la cabeza contra la pared?

El significado es más profundo de lo que parece, o más bien parece que no hay ningún significado en estas palabras. Se trata de pensar, razonar y sacar conclusiones, no de memorizar.

IlyaA escribió(a) >>.

Sentirlo (presumir).

No lo necesito. Había una pregunta, había una respuesta.

 
IlyaA >> :


Oh sí, la red en las primeras etapas es de enlace completo, bueno, o como las redes convolucionales, pero hay muchas capas). Y toda esta felicidad se multiplica por 10 y comienza a aparearse. Cada uno de ellos tiene que ser procesado, es decir, tenemos 10x. Y si tienes una idea para enseñar un truco rentable, entonces tengo que calcular todo el intervalo de tiempo para cada generación y ejecutarlo a través de cada progenie. Esta operación requería muchos recursos, así que vuelvo a mi pregunta original.

¿Por qué no utilizar el RProp? En el caso de la genética, proporciona una importante aceleración de los cálculos.

 
joo >> :

El objetivo del aprendizaje no es aislar, tamizando algunas de las características especiales que se producen y luego recordándolas. Ni siquiera es que no podamos cribar los rasgos.

En uno de los hilos expuse el principio del aprendizaje:

El aprendizaje es el proceso de adquirir la capacidad de generalizar, clasificar, abstraer y sacar conclusiones.

Con qué medios, esa es otra cuestión.


Me parece que hemos empezado a filosofar y propongo terminar la discusión sobre este tema con una nota de "mantener las armas".
 
rip >> :

¿Por qué no utilizar el RProp? En el caso de la genética, supone una importante aceleración de los cálculos.


Estoy de acuerdo en que es más rápido, al igual que el descenso por gradiente. La diferencia no es mucha. El punto de usar la genética es que la probabilidad de encontrar un extremo GLOBAL se acerca a 1. Ningún gradiente lo mostrará (corrígeme si me equivoco). Además, la superficie de un hiperplano optimizado está plagada de un número infinito de extremos locales con amplitudes significativas. Pero cada vez más neuronas añaden más aceite al fuego: el hiperplano se vuelve aún más intrincado. En estas condiciones, los gradientes convergen, pero como he escrito anteriormente la probabilidad de encontrar un extremo global es del 50-80%.
 
IlyaA писал(а) >>

Estoy de acuerdo en que es más rápido, al igual que el descenso por gradiente. La diferencia no es mucha. El punto de usar la genética es que la probabilidad de encontrar un extremo GLOBAL es cercana a 1. Ningún gradiente lo mostrará (corrígeme si me equivoco). Además, la superficie de un hiperplano optimizado está plagada de un número infinito de extremos locales con amplitudes significativas. Pero cada vez más neuronas añaden más aceite al fuego: el hiperplano se vuelve aún más intrincado. En estas condiciones, los gradientes convergen, pero como he escrito anteriormente la probabilidad de encontrar un extremo global es del 50-80%.

¿Tienes resultados concretos de las operaciones con este sistema? >> ¿Vale la pena el esfuerzo?

 
IlyaA >> :


Estoy de acuerdo en que es más rápido, al igual que el descenso por gradiente. La diferencia no es mucha. El punto de usar la genética es que la probabilidad de encontrar un extremo GLOBAL es cercana a 1. Ningún gradiente lo mostrará (corrígeme si me equivoco). Además, la superficie de un hiperplano optimizado está plagada de un número infinito de extremos locales con amplitudes significativas. Pero cada vez más neuronas añaden más aceite al fuego: el hiperplano se vuelve aún más intrincado. En estas condiciones, los gradientes convergen pero, como he escrito anteriormente, la probabilidad de encontrar un extremo global es del 50-80%.

Estoy de acuerdo en que el gradiente no proporciona una convergencia del 100% del algoritmo de aprendizaje.

Sólo utilizo los AG para obtener una nueva topología de red. Por término medio, RProp muestra que alcanza un mínimo local en 100-200 épocas.

Después, se encuentran los individuos más exitosos y se forma una nueva población. Mutación. RProp.

 
rip >> :

Estoy de acuerdo, el gradiente no proporciona el 100% de convergencia del algoritmo de aprendizaje.

Sólo utilizo los AG para obtener una nueva topología de red. Por término medio, RProp muestra que alcanza un mínimo local en 100-200 épocas.

Después, se encuentran los individuos de mayor rendimiento y se forma una nueva población. Mutación. RProp.


La combinación significa. Señores, ¡permítanme felicitar a todos! Acabamos de justificar el nombre de la sucursal. ¡Es una idea! Esto es lo que se me ocurrió. Las mutaciones en la genética cambian el 20-40% de las escalas en pequeños incrementos. ¿Existe una alta probabilidad de que las crías vuelvan al hábitat de sus padres?
 
FION >> :

¿Tienes resultados concretos de las operaciones con este sistema? >> ¿Vale la pena el esfuerzo?


No hay resultados concretos. Sólo ideas y predicciones. Todos los perceptrones que he hecho no han sobrevivido a la etapa de indicadores. Los rechacé. :( La mejor idea por el momento es superar la intensidad de recursos del algoritmo. Pero Vera sigue viva (Nadya y Lyuba también :).
 

Pregunta.

¿Quién implementó las redes difusas de Takagi-Sugeno-Kanga?