Artículo: Previsión de precios con redes neuronales - página 12

 
Otra cosa que podemos discutir es el número óptimo de sinapsis en el SN. De las consideraciones generales se desprende que no debe haber demasiados, ya que de lo contrario el SN sobreaprenderá. Pero tampoco deben ser pocos, pues de lo contrario la red estará poco entrenada. En la literatura he encontrado diferentes opiniones sobre este tema, por lo que me gustaría conocer la opinión de los estimados miembros del foro.
 
Neutron:
Otra cosa que podemos discutir es el número óptimo de sinapsis en el SN. Por consideraciones generales, está claro que no debe haber demasiados, ya que de lo contrario el SN sobreaprenderá. Pero tampoco deben ser pocos, pues de lo contrario la red estará poco entrenada. En la literatura he encontrado diferentes opiniones sobre este tema, por lo que quiero conocer la opinión de los estimados usuarios del foro.

El número de sinapsis afecta en gran medida a la capacidad de aprendizaje de una red. He intentado varias veces desarrollar un método de entrenamiento que tenga en cuenta la topología de la red, pero he fracasado.

 

Vale, pero me gustaría tener una teoría.

Este es el razonamiento en voz alta. Para una capa simple NS con un número de entradas N, tenemos N sinapsis cuyos pesos determinan de forma única el sistema N en el caso general de las ecuaciones no lineales. Está claro que para resolver un sistema de este tipo necesitamos una muestra de entrenamiento de N vectores, cada uno de ellos compuesto por N elementos. En este caso no funciona de otra manera. Con dos capas NS el número de entradas debe ser menor que el número total de vectores de entrenamiento N por n, donde n es el número de sinapsis en la segunda capa, por lo que la longitud de los vectores de entrenamiento tiene longitud N-n.

Para una NS de 3 capas, el orden de razonamiento es el mismo.

Así:

1. Partimos de la profundidad de inmersión que necesitamos y determinamos la dimensionalidad de la entrada NS.

2. A continuación, teniendo en cuenta la arquitectura (número de capas) de NS, contamos el número de sinapsis y obtenemos el tamaño óptimo de la muestra de entrenamiento.

 

Una de las cosas más importantes (en mi opinión) es la preparación de los datos, para ello

1. Intenta reducir la correlación de entradas. En otras palabras, los insumos deben ser tan estadísticamente independientes como sea posible.

2. en la normalización de los vectores de entrada, es necesario lograr el aumento de la entropía - aumentando así la cantidad de la información sometida a NS en la preservación del mismo volumen de los datos de entrada.

Comprobación obligatoria de la calidad de los datos, por ejemplo, mediante el método de Kolmogorov-Smirnov o/y con el exponente de Hurst.


La selección de la arquitectura de la red puede reducir el error.

 

El blanqueo y la normalización de las entradas son sencillos. Es elemental. Pero, ¿cómo determinar el número óptimo de entradas (profundidad de inmersión)? ¿Es posible hacerlo sólo experimentalmente? Hay algunas consideraciones sobre este tema. Puedo demostrar que existe un óptimo local en el número de entradas. No deben ser pocos, pero tampoco deben ser muchos. Por regla general, lo óptimo es de 3 a 5 entradas. ¿Qué dice la teoría al respecto?

 
Neutron:

El blanqueo y la normalización de las entradas se explican por sí mismos. Es elemental. Pero, ¿cómo determinar el número óptimo de entradas (profundidad de inmersión)? ¿Es posible hacerlo sólo experimentalmente? Hay algunas consideraciones sobre este tema. Puedo demostrar que existe un óptimo local en el número de entradas. No deben ser pocos, pero tampoco deben ser demasiados. Por regla general, lo óptimo es de 3 a 5 entradas. ¿Qué dice la teoría al respecto?

La teoría dice: sólo por intuición, es decir, experimentalmente. Lo principal es la información.

 

Lo que dices es triste.

Desgraciadamente, el tamaño del problema (globalmente) no permite responder satisfactoriamente a la cuestión de los parámetros óptimos de NS en un tiempo razonable. ¿Incluimos el intelecto y damos a luz criterios?


En general, el trabajo de la red es fascinante. Sólo como experimento he lanzado una pequeña red (de una capa) con cuatro entradas y sin no linealidad en la salida.

Pongo ticks a su entrada y lo reentreno a cada tick y hago predicciones con un tick de antelación. ¡Oh, hombre, está haciendo predicciones! En la imagen, el rojo es el teletipo, el azul es la predicción.

Por supuesto, entiendo que la serie seleccionada para la predicción es tan simple como dos dedos sobre el pavimento, pero la red es elemental.

 

Trabajo en NeuroSolutions, y hay una opción para dimensionar la red y bucear en profundidad

Mejor a ICQ (ver perfil)

 
En repetidas ocasiones he comprobado que si no comprendo a fondo cómo y por qué funciona algo, conseguir un resultado positivo es como encontrar una aguja en un pajar: puedes encontrarla, pero no el hecho de que vaya a ocurrir. Por eso prefiero construirlo yo mismo y desde cero, el resultado suele ser mejor.
 

Dobrovo vam vremia sutok i izvinite za translit.


No se trata de un programa que se pueda utilizar, sino de un programa que se pueda utilizar. U menia vopros vam, otnositelno neironnix setej.

Procitav ves topic forum, mne bolee menee jasno kemu vse klonitsia ispolzuja neironnije seti, i potomu voprosi, dumaju, bolee konkretnije.


Dannije

1. hay señales kucia con odinakovim cislom parametrov na konkretnij slucaj. - eto kak bi vxod neiroseti

2. hay un rezultat - es serii xoroso/ploxo


Itak - es posible, ispolzuja neiroset poluchit otvet neiroseti v buduscem po etoj modeli - novije dannije - otvet - xoroso o ploxo? ¿Qué es lo que más le gusta a NN?

Los resultados de la investigación se refieren a las señales de los parámetros de la red (de los suelos y de los silos) en los lugares de trabajo.