Red Neuro Estéreo

 

En Avishka, si entrecierras bien los ojos y caes en un estado de Nirvana, puedes ver cómo una rejilla no lineal de 3 capas y dos entradas paladea los datos de entrada (las series de precios) tratando de encontrar patrones ocultos en ellos. Y, efectivamente, lo encuentra.

P.D. Esto no debe tomarse en serio.

Archivos adjuntos:
3d_1.zip  1295 kb
 
Neutron >> :

En Avishka, si entrecierras bien los ojos y caes en un estado de Nirvana, puedes ver cómo una rejilla no lineal de 3 capas y dos entradas paladea los datos de entrada (las series de precios) tratando de encontrar patrones ocultos en ellos. Y, efectivamente, lo encuentra.

P.D. No hay que tomarlo en serio.

Y antes, según recuerdo ahora, en la pequeña sala del cine Oktyabr, daban unas gafas especiales...

 
¿Son más caricaturas de alguna empresa de neuropaquetes?
 
No, esas son mis caricaturas. Los inventé yo mismo, o más bien ella (NS) descubrió cómo dividir las dos señales de entrada en Compra y Venta.
 
Neutron >> :
No, esas son mis caricaturas. Los inventé yo mismo, o más bien inventó (NS) cómo dividir dos señales de entrada en Compra y Venta.

>> ¿Es una cuantificación de entrada, como en SOM, o es otro tipo de NS?

 
¿Por qué dos gráficos?
 

Bueno, eso es para el estéreo. Es realmente una imagen tridimensional.

budimir писал(а) >>

>> ¿Es una cuantificación de los datos de entrada como en SOM, o es otro tipo de NS?

Es un perseptrón convencional de triple capa con sesgo y no linealidad en cada neurona, totalmente reentrenado en cada barra.
 
Si se trata de un Perspectron normal de tres capas, ¿por qué tiene que volver a entrenarse completamente en CADA barra?
 

¿Puedo hacerte una pregunta?

Si es posible, ¿por qué no?

 

La posibilidad existe, pero hay tipos especiales de NS, donde es necesario realizar el entrenamiento en cada barra, como para el NS tipo MLP,

Tiene que haber algún criterio para que la MLP tenga que estar completamente reentrenada en TODOS los bares,

y tal criterio -que exista tal posibilidad- es cuestionable.

 
Al entablar este diálogo, estamos resolviendo inconscientemente diferentes problemas de optimización (en el sentido global). Sólo puedo adivinar el enfoque que ha elegido. Sobre la mía puedo decir que en esta etapa de la investigación tengo suficiente poder computacional a mi disposición para no limitarme por el parámetro "complejidad de la formación NS". Evidentemente, no hay nada de malo en volver a entrenar (formación adicional) a los NS en cada paso. Así, puedo concentrar mi atención en otros aspectos interesantes de la IA reduciendo en uno la dimensionalidad del espacio de parámetros en el dominio investigado. Creo que, en ese sentido, lo estoy haciendo de forma óptima.