La etiqueta del mercado o los buenos modales en un campo de minas - página 80

 
gpwr писал(а) >>

¿Por qué hay una dispersión estadística cerca de los círculos azules? Si las ponderaciones parten de cero, no debería haber dispersión estadística.

La cuestión es que no estoy generando estadísticas para la misma muestra de entrenamiento, sino que estoy cambiando una muestra a la vez durante cada ciclo. Por lo tanto, los resultados de la formación no coinciden entre sí. No recuerdo por qué lo hice, pero no cambia la esencia. Aparentemente, quería mostrar los procesos cuasi estacionarios del mercado y reflejar su influencia en la velocidad de aprendizaje.

Este es el aspecto de los resultados al promediar 10 experimentos con la misma muestra de entrenamiento (fig. izquierda):

Se puede ver que no hay variación estadística para los pesos con inicialización cero.

La figura de la derecha se basa en una arquitectura de red con 12 entradas, 5 neuronas en la capa oculta y 1 neurona en la salida y con una muestra de entrenamiento de 120 muestras, es decir, es una copia de su caso. Las estadísticas se obtuvieron a partir de 50 experimentos numéricos independientes. Además, todo funciona correctamente.

Si se utilizan los precios de apertura del EURUSD1h normalizados por su desviación estándar, su media no es igual a cero. ¿O has restado la media?

No, he utilizado la primera diferencia de precio de apertura como entrada (pensé que estaba claro por el contexto). Está claro que la media es cero. Predice la amplitud y el signo de la siguiente diferencia.

En cuanto al teorema, me ha gustado. Pero, ¡se relaciona con nuestras redes como un caso especial!

Has demostrado el caso degenerado para la longitud de la muestra de entrenamiento que tiende a infinito. Realmente, en este caso para el vector de datos de entrada que representa el SV con MO cero obtenemos pesos cero - ¡la mejor previsión para mañana para el SV integrado es el valor actual de hoy! Pero, una vez que tomamos una muestra de entrenamiento de longitud finita, los pesos entrenados tenderán al equilibrio, minimizando el cuadrado del error. Como ejemplo para demostrar esta afirmación, tomemos el caso de SLAE (el mismo NS). En este caso, los pesos están definidos de forma única, el error de entrenamiento en la muestra de entrenamiento es idénticamente igual a cero (el número de incógnitas es igual al número de ecuaciones) y los pesos (coeficientes en las incógnitas) obviamente no son iguales a cero.

 

Hay algo en este diseño que no me gusta:


 
¿Por qué ves un rango de +/-1 en la escala de abscisas? Debería ser +/-N... Quizá hayas puesto los límites de +/-1 a tope y ahora no veas nada, pero es como en la foto.
 

No creo que sea por eso. No he especificado un límite de alcance en absoluto. Ahora se pone duro de -N a +N :


Sospecho que es un fallo de Matkad. Ya tengo el nuevo, pero el correo no funciona hoy. Sólo podrá conseguirlo mañana.

 
paralocus писал(а) >>

No creo que sea por eso. No he especificado ningún límite de alcance. Ahora se pone duro de -N a +N :

Sospecho que es un fallo de Matkad. Ya tengo el nuevo, pero el correo no funciona hoy. Sólo podré conseguirlo mañana.

Estoy bien:

Tú, muéstrame los valores del vector. Como, F=... ¿qué tienes?

 
 

Ahhh. Ya sabes lo que tienes que hacer: redondear tu dif en el bucle a un entero: dif[i]=trunc(K*(Open[i]-Open[i-1])). Tal vez su cociente de origen no sea de 4 dígitos. Vea cómo se ve el cotier en la tabla.

 

Sí, funcionó...

Extraño, ¿cómo es que no tengo cuatro dígitos en mi cociente?


 

De dónde, de dónde... Porque has configurado Matcad para representar los números con tres decimales.

Oh, no. Sin embargo, el problema está en el cociente original. Mira los datos en bruto.

 
Esto se debe a la diferencia de tipos de datos. trunc() simplemente establece el valor de la primera diferencia del cociente a un tipo entero.