"New Neural" es un proyecto de motor de red neuronal de código abierto para la plataforma MetaTrader 5. - página 80

 
Urain:

En cuanto a la sparsity (que escribí más arriba), se puede crear una matriz de índices para cada neurona en función de la máscara, que tras el recuento indicará dónde colocar las salidas.

Parece más lógico tomar las entradas de donde, y dejar que quien quiera tome las salidas.
 

Sí!!! el tema es muy interesante. Me gustaría tratar el tema de la optimización de redes neuronales mediante algoritmos naturales, utilizando como ejemplo un enjambre de abejas o de partículas. Cuando leí el artículo sobre este método se me ocurrió lo que parece, no es nada parecido a OpenCL pero sí directamente aplicable a neuronc así que por qué no intentar implementarlo con DDL gráfico adicional OpenGL por ejemplo, sobre todo porque el tester lo permite. Si alguien está interesado puedo dar un enlace a un artículo interesante, también hay un enlace al código fuente.

 
MetaDriver:
Pero. Este enfoque ni siquiera contiene el germen para intentar cruzar genéticamente las topologías.

No he oído hablar de tal cosa. ¿Cruzar diferentes topologías conduciría a algo mejor que la evolución de la misma topología?

 
gpwr:

No he oído hablar de tal cosa. ¿Cruzar diferentes topologías conduciría a algo mejor que la evolución de la misma topología?

Las mulas y los caballos son más adecuados para algunas actividades que los burros y los caballos. Es sólo una idea. La idea aún está en marcha.
 
gpwr:

No he oído hablar de tal cosa. ¿Cruzar diferentes topologías conduciría a algo mejor que la evolución de la misma topología?

Eso sucede. Cochonen con un perseptrón, por ejemplo.
 
su.humano:
Parece más lógico tomar las entradas de donde, y dejar que quien quiera tome las salidas.

Puedes hacerlo así, pero no cambia la esencia del modelo. Aunque es necesario comprobar la velocidad de qué opción será más rápida.

gpwr:
Las capas son necesarias porque en algunas redes las diferentes capas tienen un procesamiento diferente de las entradas y diferentes conexiones de las neuronas entre sí dentro de una capa. En realidad, no entiendo la viabilidad del objetivo de construir una red universal. Hay muchas redes con sus matices (funciones de las neuronas en las diferentes capas, su conexión, el entrenamiento de los pesos, etc.). Describirlos todos en un solo modelo me parece imposible o ineficiente. ¿Por qué no crear una biblioteca de diferentes redes?

Cada neurona puede ser definida por su propio tipo (sin mencionar la capa), que será establecida por la funcionalidad extensible de los descendientes de la clase base CProcessing. Por cierto, la idea la he concebido yo, pero la puesta en práctica la he modelado de rodillas. Quería discutirlo y luego poner en práctica algo ya pensado. Pensé que estaría claro que en CProcessing debería haber una función Trening, y para cada tipo de neurona puede ser diferente, dependiendo de la derivada y Dios sabe qué más. Y puede haber una propagación hacia delante y hacia atrás del Trening.

Junto con la topología universal obtenemos un esquema de aprendizaje universal, lo que hay que hacer con una neurona para que aprenda se describe en la propia neurona y el procesamiento del aprendizaje es una única progresión estandarizada a través de la malla.

¿Has visto en algún sitio que, por ejemplo, en el MLP hay neuronas incrustadas de forma radial, y que todo se aprendió con normalidad? Es realizable aquí.

 

La idea de una descripción universal (incluyendo una descripción exhaustiva de la topología) es prometedora al menos porque será posible (¡por fin!) abstraerse del propio "tipo de cuadrícula", un concepto bastante artificial, si se entiende.

No estoy en contra de dar nombres específicos a algunas topologías concretas (por pura comodidad). Pero sólo mientras esos nombres no empiecen a hipnotizar y crear barreras de percepción de la esencia, e interfieran con el cruce de ideas entre sí. Y se observa a cada paso en todas las áreas de la actividad vital.

 

Leyendo sus comentarios sobre el tema llegó a la conclusión - Me gustaría ver el proyecto beta cuando será? y un artículo con una descripción detallada.

 
Urain:
...
¿Así que puede haber, en alguna parte, un bucle de retroalimentación?
 
GKS:

Leyendo vuestros comentarios sobre el tema he llegado a una conclusión - me gustaría ver una beta del proyecto cuando sea? y un artículo con una descripción detallada.

Si bien es una discusión de trabajo, el tiempo lo dirá.

MetaDriver:

La idea de una descripción universal (que incluya una descripción exhaustiva de la topología) es prometedora al menos porque será posible (¡por fin!) abstraerse del propio "tipo de red", un concepto bastante artificial, si se entiende.

No estoy en contra de dar nombres específicos a algunas topologías concretas (por pura comodidad). Pero sólo mientras esos nombres no empiecen a hipnotizar y a crear barreras a la percepción de la esencia, e interfieran en el cruce de ideas entre sí. Y esto se observa a cada paso en todos los ámbitos de la vida.

Sería posible hacer plantillas de arranque por nombre, por ejemplo, la plantilla "MLP" deletrea los tipos de todas las neuronas por "perseptrons".