La etiqueta del mercado o los buenos modales en un campo de minas - página 58

 
gpwr >> :

Creo que me has vuelto a malinterpretar.

Realmente no entiendo cómo vas a influir en los coeficientes de este polinomio para encontrar el error mínimo global (es decir, el aprendizaje). Te mostraré los pesos de la neurona entrenada:


Tres experimentos con el mismo vector. La experiencia más a la derecha fue la más exitosa. Es decir, entiendo que teniendo una topología preparada, no es difícil (teóricamente) elegir un polinomio de este tipo que suavice bastante bien esta topología, pero explícame, ¿cómo vas a calcular esta topología (malla ya entrenada) para una no entrenada? En otras palabras, ¿cuál es el algoritmo para influir en el kf, lo que conduce a una reducción de la función de error de aprendizaje? ¿Lo conoces?

 
Neutron >> :

Construido especialmente para ti:

Se puede ver claramente que FZ está siempre presente y es visible en los movimientos bruscos del kotir.

Sergey, no voy a discutir más este tema contigo porque es trivial y completamente inútil. Aprende las matemáticas, y la próxima vez que se te ocurra la siguiente idea súper brillante, para cuya puesta en práctica crees que necesitas uno o dos institutos de investigación y un clúster de PC, piensa por un momento: tal vez no sepas o no entiendas. Al fin y al cabo, es más probable que el "descubrimiento de la época", en la zona en la que se ha pisoteado todo antes.


Bien, considere que el retardo de fase (ese es el término) existe para dos casos



Francamente, y me aburres :o)

 
HideYourRichess >> :

Me sorprende ver un algoritmo que demuestra esto mismo en un 80%. Estoy buscando un error. Parece muy sencillo. No funciona así.

no me sorprende que yo, que no soy matemático, haya acertado, ¡qué decir de un profesional! :о)))

 

a Neutrón


¿Hay un retardo de fase entre High/Low y Close? :о))) Así que, según su método visual, hay uno:




¿De dónde puede venir?


Correcciones y adenda: Mientras nadie esté mirando, haré pequeñas correcciones. He cometido un pequeño error por las prisas, en la - imagen de arriba Abrir y Cerrar. Una señal se retrasa con respecto a la otra, pero en este caso concreto no se trata de un desfase.


No hay retardo de fase. No se ha ejecutado ningún operador matemático que provoque un desplazamiento. No hay ningún cambio de fase que aparezca de la nada. En su lugar, hay una elección de proceso, una regla que dice "este es el proceso".


Si el "cambio" se considera en términos de que la apertura va en primer lugar y el cierre en segundo lugar, entonces sí - hay un "cambio" (no voy a discutir en contra de eso). Pero ni siquiera sé qué métodos matemáticos "encontrarán" el desplazamiento en este caso concreto. Estas señales son alternativas entre sí.




Y para elegir Close para la predicción, es necesario tener un sistema increíblemente preciso. Y para mi simple idea, que por cierto es muy "robótica", ningún retraso (H+L)/2 tendrá ningún efecto.


PD: Jesús, Seryoga Seryoga, - estos procesos son monopenéticos, absolutamente. Eso es todo, adiós. Buena suerte

 

a Neutrón

Mientras espero el nuevo Matkad, estoy repitiendo lo que he aprendido, es decir, estoy trasteando con la capa única. Me has pedido que muestre la longitud del vector de error, y eso es lo que he conseguido:


Estadísticas X, longitud L (si lo he entendido bien).

Calculado de esta manera:


Aquí i es el bucle de la estadística X es el vector de entrada (sumado sobre toda la longitud del vector de entrenamiento actual). El cuadrado del error se acumula durante toda la época junto con el cuadrado del vector de entrenamiento:


Y al final de una época, se cuenta de la siguiente manera:


Aquí n es el ciclo sobre épocas.

¿Está todo bien hecho?

 

A juzgar por la figura, hay un error en alguna parte: deberíamos ver un aprendizaje gradual de la red (longitud del vector de error decreciente) a medida que pasamos de una época a otra. Esto no es visible. Las razones, como siempre, podrían ser una carreta y un pequeño carro. Por ejemplo, en lugar de la magnitud del vector de error de la época, el gráfico muestra esa magnitud para la red ya entrenada (última época) en función del número de experimentos independientes... Se deduce de su - "Por X estadísticas..." - ¿qué estadísticas? No es que debamos escribirlo aquí. Y éste - "...por la longitud L", - L se normaliza a la longitud del vector de datos y debe estar cerca de 1, disminuyendo gradualmente hacia el final de la circunferencia... Vemos algo diferente.

Aquí, echa un vistazo a cómo debería ser:

Aquí, el azul muestra la longitud del vector de error en la muestra de entrenamiento (estamos viendo cómo se entrena la cuadrícula, no cómo predice). En total utilizamos 200 épocas de entrenamiento y k=1 para mayor claridad, para mostrar que en este caso particular la red está completamente entrenada (el error es cero) y simplemente aprende la muestra de entrenamiento de memoria. Es aún más rápido. El problema es que en la muestra de prueba con tales pesos nuestro sumador mostrará el tiempo en África, es decir, está completamente privado de la capacidad de generalización. Las líneas rojas de la figura muestran la varianza (dispersión) de una serie de experimentos (n=50), mientras que la línea azul muestra la media (yo elaboro estadísticas, pero de una manera diferente a la suya y de la que hablaré más adelante).

Tus dos últimas expresiones son casi correctas, excepto que no debería haber un índice en las estadísticas (sólo haces UN experimento y necesitas un nuevo código, sin un conjunto de estadísticas), y no entiendo la primera ecuación. ¿De dónde viene? Tengo un bloque similar que se parece a este:

Donde j, es el bucle sobre el vector de entrenamiento. Fíjate en que mis índices son notablemente más pequeños cuando el índice es cuadrado.

P.D. Por cierto, he renunciado a utilizar la función squeeze para los pesos, primero para el monocapa y luego para el bicapa. Sin ella, los resultados son igual de buenos y las molestias son menores.

 
grasn >> :

no es de extrañar que yo, que no soy matemático, lo consiga, ¡hablando de un profesional! :о)))


Lo he descubierto. Lo que yo hacía podría considerarse una versión primitiva de la RA, o viceversa, la RA podría considerarse una versión mejorada de lo que yo hacía.

 
Neutron >> :

Tus dos últimas expresiones son casi correctas, excepto que no debería haber un índice en las estadísticas (sólo estás haciendo UN experimento y necesitas un código nuevo, sin un conjunto de estadísticas), pero no entiendo la primera ecuación. ¿De dónde viene? Tengo un bloque similar que se parece a este:

Donde j, es el bucle sobre el vector de entrenamiento. Fíjate en que mis índices son notablemente más pequeños cuando el índice es cuadrado.

P.D. Por cierto, he renunciado a utilizar la función squeeze para los pesos, primero para el monocapa y luego para el bicapa. Sin ella, los resultados son igual de buenos y las molestias son menores.

La primera ecuación está calculando la longitud del vector de error y normalizándolo a la longitud del vector de datos (es decir, la forma en que lo entiendo hasta ahora) La razón es probablemente que realmente necesito un nuevo código sin conjunto de estadísticas. Lo haré ahora.

En cuanto a la función de compresión, a mí no me funcionó de inmediato (es decir, el resultado no era evidente), así que no la utilicé.

 
paralocus писал(а) >>

La primera ecuación consiste en calcular la longitud del vector de error y normalizarla por la longitud del vector de datos (es decir, tal y como yo lo entiendo hasta ahora)

¿Qué representan entonces las dos últimas expresiones?

Pensaba que la segunda era encontrar los cuadrados de las longitudes de los vectores y la tercera encontrar la longitud normalizada. Si es así, ¿por qué la primera expresión?

 
HideYourRichess >> :

Lo tengo claro. Lo que yo hice puede considerarse una versión primitiva de AR, o viceversa, AR puede considerarse una versión mejorada de lo que yo hice.

No he incluido la identificación del modelo, es decir, la definición óptima de la longitud de la muestra y el orden del modelo. Con eso, creo que es posible llegar al 90%. No tengo ninguna duda de que sus resultados serán igual de buenos, o incluso mejores. ;)