La etiqueta del mercado o los buenos modales en un campo de minas - página 15

 
Neutron >> :

Puede buscar las fórmulas usted mismo en la literatura, que es abundante en Internet.

No nos precipitemos. Y no intentes complicarte la vida con todo tipo de artificios, como el "aprendizaje no lineal", etc. es del Maligno. Belleza y fiabilidad en la sencillez y la armonía.

Salva y ten piedad...

 
:-)
 
Neutron >> :

Tomémoslo con calma. Y no intentes complicarte la vida con todo tipo de artificios como el "aprendizaje no lineal" y similares. Belleza y fiabilidad en la sencillez y la armonía.

Ы? Es un clásico. De todos modos, te dejo con ello.

 
Neutron >> :

Se tiene un vector de señales de entrada (que sea unidimensional) de longitud n muestras, y que n+1 muestras sean una comprobación de la calidad del entrenamiento de la Red. Le das este vector (n muestras), equiparando todos los pesos a valores aleatorios en el rango +/-1 con una distribución de densidad de probabilidad uniforme, y ves lo que produce la cuadrícula. Supongamos que se pone +5,1, y se comprueba que n+1 cuenta (el valor al que debe aspirar la rejilla entrenada en el vector de entrenamiento) +1,1. Entonces se toma la diferencia entre el valor obtenido y el deseado +4 y se añade este valor, manteniendo su signo a cada peso de la neurona de salida (si no tiene FA), o se encuentra la derivada de FA de este valor y se añade a los pesos de la neurona de entrada (si tiene FA). Y así sucesivamente.

Si digieres este trozo, te diré cómo empujar más el error a los pesos de entrada de la primera capa (de entrada).

1. Según tengo entendido, la red debe tener dos modos de funcionamiento: 1 - aprendizaje, 2 - reconocimiento y estos modos no son compatibles, es decir, la red está en uno de ellos en cualquier momento.


2. Un vector de señales de entrada de longitud n, es, por ejemplo, una matriz V[n,3] (para una rejilla con tres entradas) de valores RSI en n barras, ¿no? Entonces la cuenta n+1 es el mismo RSI en la barra n+1. En ese caso, entreno la red para predecir el comportamiento futuro del RSI, basándome en su comportamiento anterior.

Si es así, los pesos están todos claros, hasta el punto en que tengo que tomar la derivada de la función FA no suave.( Es decir, aún no sé cómo hacerlo... Tal vez sólo tomar el coeficiente angular entre dos puntos adyacentes FA(RSI(i)). ? Bueno, está bien, es una cuestión técnica - se solucionará).

 
paralocus писал(а) >>

1. Según tengo entendido, la red debe tener dos modos de funcionamiento: 1 - aprendizaje, 2 - reconocimiento y estos modos no son compatibles, es decir, la red está en uno de ellos en cualquier momento.

2. Un vector de señales de entrada de longitud n, es, por ejemplo, una matriz V[n,3] (para una rejilla con tres entradas) de valores RSI en n barras, ¿no? Entonces la cuenta n+1 es el mismo RSI en la barra n+1. En ese caso, entreno la red para predecir el comportamiento futuro del RSI, basándome en su comportamiento anterior.

Si es así, los pesos están todos claros, hasta el punto en que tengo que tomar la derivada de la función FA no suave.( Es decir, aún no sé cómo hacerlo... Tal vez sólo tomar el coeficiente angular entre dos puntos adyacentes FA(RSI(i)). ? Bueno, está bien, es una cuestión técnica - se solucionará).

Está muy bien explicado en F.Wasserman.Neurocomputing - Theory and Practice

 
Vinin >> :

Muy bien explicado en F. Wasserman, Neurocomputing - Theory and Practice

Sí, gracias, he encontrado uno.

 
paralocus писал(а) >>

1. Según tengo entendido, la red debe tener dos modos de funcionamiento: 1 - aprendizaje, 2 - reconocimiento y estos modos no son compatibles, es decir, la red está en uno de ellos en cualquier momento.

2. Un vector de señales de entrada de longitud n, es, por ejemplo, una matriz V[n,3] (para una rejilla con tres entradas) de valores RSI en n barras, ¿no? Entonces la cuenta n+1 es el mismo RSI en la barra n+1. En ese caso, entreno la red para predecir el comportamiento futuro del RSI, basándome en su comportamiento anterior.

Si es así, los pesos están todos claros, hasta el punto en que tengo que tomar la derivada de la función FA no suave.( Es decir, aún no sé cómo hacerlo... Tal vez sólo tomar el coeficiente angular entre dos puntos adyacentes FA(RSI(i)). ? Bueno, vale, es una cuestión técnica - se solucionará).

1. Con la llegada de un nuevo dato, la rejilla se entrena en el nuevo vector de entrenamiento e inmediatamente después del entrenamiento produce una predicción 1 paso por delante, y así hasta el infinito. Es decir, se trata de una cuestión de formación adicional de NS en cada paso.

2. La malla con tres entradas lee tres últimas lecturas del vector de longitud n+1+3, y se entrena sobre ella mediante un desplazamiento secuencial de un paso de todas las n veces.

No hay ningún problema con el derivado. Si utilizamos la tangente hiperbólica FA=th(x) como FA, entonces no tenemos problema para encontrar la derivada de la misma, dFA=1-th(x)^2 y el peso de corrección en la entrada de esta neurona será: dw=delta*(1-th(s)^2), donde delta es el error entre la salida de la rejilla y el valor real de la muestra, s es la salida de la rejilla.

 
Neutron >> :

1. Con la llegada de un nuevo dato, la rejilla se entrena en el nuevo vector de entrenamiento e inmediatamente después del entrenamiento produce una predicción 1 paso por delante, y así hasta el infinito. Es decir, hablamos de una formación adicional de la NS en cada etapa.

2. La malla con tres entradas lee tres últimas lecturas del vector de longitud n+1+3, y se entrena sobre ella mediante un desplazamiento secuencial de un paso de todas las n veces.

No hay ningún problema con el derivado. Si usamos como FA la tangente hiperbólica FA=th(x), entonces no tenemos problema para encontrar la derivada de ella dFA=1-th(x)^2 y el peso de corrección en la entrada de esta neurona será: dw=delta*(1-th(s)^2), donde delta es el error entre la salida de la rejilla y el valor real de la muestra, s es la salida de la rejilla.

¡Eso es! Así que no hay necesidad de volver a entrenarla. ¡Oh, genial!

2. Una rejilla con tres entradas, lee las tres últimas muestras de un vector de longitud n+1+3, y se entrena sobre él desplazando secuencialmente en un paso las n veces.


Debo haberme expresado mal aquí. No es una red con tres entradas, sino una neurona con tres sinapsis, cada una de las cuales recibe una señal de entrada:

1synaps - th(RSI(i))

2synaps - th(RSI(i+dt))

3synaps - th(RSI(i+td*2))

1. inicializamos los pesos de las sinapsis con valores aleatorios (-/+1), lo que tiene sentido - sólo hay tres.

2. Entonces tenemos que alimentar cada entrada con n muestras de la señal de entrada, es decir, una secuencia de señales de entrada en n barras anteriores.

3. Entonces la neurona de salida en la enésima barra y compararla con n+1 valor de la señal de entrada, la diferencia (error) con su signo debe ser añadido a cada peso si la salida de la neurona sin FA.

Si la salida es de FA, añadimos a las ponderaciones el error multiplicado por el prudente de FA(en la n-ésima barra)

4. Avanza una barra (la n+1 se convierte en la n) y repite los pasos 2 a 4.


Preguntas:

1. n = k*w*w/d ?

2. Para calcular el valor del error, reste siempre el recuento de la prueba del valor de salida de la rejilla?

 

¡Sí!

A continuación, pasemos a las épocas de aprendizaje. Habrá de 10 a 1000, dependiendo de los objetivos y los medios, y tocaremos con más detalle cómo formar un vector de corrección de pesos (de hecho es conmutativo dentro de una época) y tiene una longitud igual al número de sinapsis w en una muestra de longitud n-cuentas.

En resumen, no te molestes todavía.

 
Neutron >> :

¡Sí!

Luego pasamos a las épocas de aprendizaje. Habrá de 10 a 1000, dependiendo de los objetivos y los medios, y tocaremos con más detalle cómo formar un vector de corrección de pesos (de hecho es conmutativo dentro de una época) y tiene una longitud igual al número de sinapsis w en una muestra de longitud n-cuentas.

En resumen, no te molestes todavía.

Neutron, me tomaré un breve descanso. Tengo que repensar todo una vez más y ponerlo en códigos al menos para una neurona. De todos modos, un día o dos, y luego continuaremos.

Se lo agradezco mucho.