La etiqueta del mercado o los buenos modales en un campo de minas - página 23

 
El interés no está en el NS como tal - realmente es el mismo, sólo que tal vez la función de activación es diferente o algo así... (Es una lástima que JOONE haya resultado tener fallos cuando se probó; está lleno de todo tipo de funciones...) Interés por la calidad de la señal de entrada, el proceso de aprendizaje y la salida
 
Neutron писал(а) >>

Vamos, danos una idea y la discutiremos.

Lo que es prometedor para poner allí. - ¿Mascota?

Oh, ya he puesto todo lo que tengo en la entrada... :) Muy bien, te contaré toda la historia.

Ya he dicho una vez que me gusta la genética, porque la cuestión de qué comportamiento de la red debe ser óptimo -para ORO- es muy abierta.

Debía preguntar a la red en cada nuevo bar y reaccionar en consecuencia. Así que escribí algo y reuní diferentes promedios, estocásticos o lo que Dios me mande para aportar y lo puse en marcha. Y ahora veo que la red hace maravillas. Saca griales (no inmediatamente, por supuesto, pero aprende antes del grial)...

El error fue que no hay muchos indicadores que se puedan utilizar con el cambio 0 - necesitan toda la barra para dibujar. De hecho, estaba alimentando la parrilla con datos de la barra que aún no existían y, por lo tanto, estaba mirando hacia el futuro.

Desde entonces he estado luchando con los datos de entrada. Pero descubrí por mí mismo que el aprendizaje funciona :)

 
YDzh писал(а) >>
El interés no está en el NS como tal - es realmente el mismo, sólo que tal vez la función de activación es diferente o algo más. Además, nada depende de la función de activación (su tipo específico), ¡nada depende del método de aprendizaje (si se realiza correctamente)!

Todo depende de lo que vayas a predecir. Ese es el punto y aparte.

No tiene sentido discutir sobre los indukes basados en el suavizado de BP en una u otra forma (MACD por ejemplo) - podemos demostrar estrictamente que BP en este caso es un obstáculo insuperable para la predicción de BP con propiedades de antipersistencia en las series de primera diferencia (las series de precios son exactamente tales).

Con respecto a la "mirada al futuro" en la enseñanza de NS, todos lo hemos experimentado...

 
Neutron писал(а) >>

Todo depende de lo que vayas a predecir. Ese es el punto y aparte.

No tiene sentido discutir sobre los indukes basados en el suavizado de BP en una u otra forma (MACD por ejemplo) - podemos demostrar estrictamente que BP en este caso es un obstáculo insuperable para la predicción de BP con propiedades de antipersistencia en las series de primera diferencia (las series de precios son exactamente tales).

En cuanto a la "mirada al futuro" en la formación de NS, todos pasamos por eso...

Bueno, depende de cómo se mire. La barra es un valor medio. La barra mínima es un minuto, lo que significa que todo lo que se encuentra antes del minuto actual ya ha sido promediado en cierta medida.

 
Neutron писал(а) >>

Todo depende de lo que vayas a predecir. Ese es el punto y aparte.

No tiene sentido discutir sobre los indukes basados en el suavizado de BP en una u otra forma (MACD por ejemplo) - podemos demostrar estrictamente que BP en este caso es un obstáculo insuperable para la predicción de BP con propiedades de antipersistencia en las series de primera diferencia (las series de precios son exactamente tales).

En cuanto a la "mirada al futuro" en la formación de NS, todos pasamos por eso...

Si es así, no tiene sentido tocar los indicadores. Todos ellos se basan en la agregación de datos de una u otra forma. Salvo el tiempo, el volumen y los precios, no hay datos primarios. Entonces tienes que bajar al nivel de las garrapatas... Pero allí hay "mucho ruido". Paradoja...

 
YDzh писал(а) >>

Si es así, no tiene sentido tocar los indicadores en absoluto. Todos ellos se basan en la agregación de datos de una u otra forma. Aparte de la hora, el volumen y el precio, no hay datos primarios. Entonces tienes que bajar al nivel de las garrapatas... Pero allí hay "mucho ruido". Paradoja...

Es cierto. Excepto que no hay ningún alboroto - la sopa está separada.

En cuanto a la barra, sólo utilizo los precios de apertura, sin promediar. Mi plan es usar sólo garrapatas, como dice el sabio Prival. Sin embargo, tendré que trastear con el modo de ahorro y la recogida de datos. Pero si vale la pena, ¿por qué no?

 

Bien, ¡creo que eso es todo hasta que se corrijan los pesos!


for(int i = cikl; i >= 0; i--)
{
out = OUT2(i);---------------------------------------------------// Получаем вых. сигнал сетки
test = (Close[i]-Close[i+1])/Close[i+1];--------------------------// Получаем n+1-вый отсчет

d_2_out = test - out;---------------------------------------------// Ошибка на выходе сетки
d_2_in = d_2_out * (1 - out*out);--------------------------------// Ошибка на входе выходного нейрона

Correction2[0] += d_2_in * D2[0];---------------------------// Суммируем микрокоррекции
SquareCorrection2[0] += Correction2[0] * Correction2[0];----------// по каждому весу входящему в вых. нейрон
Correction2[1] += d_2_in * D2[1];---------------------------// и суммируем квадраты оных микрокоррекций
SquareCorrection2[1] += Correction2[1] * Correction2[1];
Correction2[2] += d_2_in * D2[2];
SquareCorrection2[2] += Correction2[2] * Correction2[2];

d_11_in = d_2_in * (1 - D2[1]*D2[1]);-----------------------------// Считаем ошибку на входах нейронов
d_12_in = d_2_in * (1 - D2[2]*D2[2]);-----------------------------// скрытого слоя

for (int k = 0; k < 17; k++)
{---------------------------------------------------------------// Сууммируем микрокоррекции для входов
Correction11[k] += d_11_in * D1[k];----------------------// первого нейрона
SquareCorrection11[k] += Correction11[k] * Correction11[k];
}

for (k = 0; k < 17; k++)
{---------------------------------------------------------------// Суммируем микрокоррекции для входов
Correction12[k] += d_12_in * D1[k];----------------------// второго нейрона
SquareCorrection12[k] += Correction12[k] * Correction12[k];
}
}
 

Pongo los códigos por si acaso:

NeuroNet_1 es una rejilla vacía de entrenamiento EA

NeroLite_ma es un perceptrón de dos capas, en realidad fácilmente ampliable a una capa N -:)

Archivos adjuntos:
 
Neutron писал(а) >>

¡Esa es la verdad! No hagas un escándalo: la sopa va por separado.

En cuanto a la barra, sólo utilizo los precios de apertura, sin promediar. Y voy a hacer lo que el sabio Prival hará: cambiar a las garrapatas. Sin embargo, tendré que trastear con el modo de ahorro y la recogida de datos. Pero si vale la pena, ¿por qué no?

No hago un escándalo :) La utilidad de las tics está reconocida en la literatura... Huele a teoría del caos. Sobre si vale la pena... ¿Merece la pena? ¿Y dónde lo aconseja Prival?

¿Y qué, cuáles son los resultados en el precio de apertura? He estado jugando con el análisis de regresión sin ningún motivo. Y resultó que el máximo y el mínimo son mucho más fáciles de predecir que el precio de apertura... Eso no es tan extraño...

 
YDzh >> :

¿Y dónde aconseja esto Prival?

... >> ¡en todas partes! ¡El baño es sabio!